Kombinatorik. ? Beispiel : Multiple-Choice-Klausur − 16 Fragen − Je 4 Antwortalternativen ( eine ist richtig ) − Zufälliges Ankreuzen ? Wahrscheinlichkeit für mindestens 8 Treffer ? → Mögliche Lösungsstrategie : Wie viele Ankreuzmöglichkeiten gibt es insgesamt? Bei wie vielen dieser Möglichkeiten gibt es ≥ 8 Treffer ? → Quotienten bilden → „ Wie viele Möglichkeiten ? “ → Kombinatorik 1.1 QM1_16 1 ? Beispiel : Aufteilen von Vpn auf Gruppen − 20 Vpn − Aufzuteilen in 2 Gruppen zu 10 − 10 Vpn haben kritisches, nicht sichtbares Merkmal A ? Wie wahrscheinlich sind ≥ 8 A-Vpn in Gruppe 1 ? → Mögliche Lösungsstrategie : Wie viele Möglichkeiten der Verteilung gibt es ? Bei wie vielen kommen ≥ 8 A-Vpn in Gruppe 1 ? → Quotienten bilden → „ Wie viele Möglichkeiten ? “ → Kombinatorik ? Beispiel : Lotto 6 aus 49 ? Wie wahrscheinlich sind ≥ 5 Richtige ? → Vorgehen entsprechend 1.1 QM1_16 2 → Notationen ♦ n ! := 1 · 2 · . . . · (n − 1) · n für natürliches n ( ‚ n Fakultät ‘ ) − Dabei : 0 ! := 1 ? 1! = 1 ? 2! = 1 · 2 = 2 ? 3! = 1 · 2 · 3 = 6 ? 4 ! = 1 · 2 · 3 · 4 = 24 ? 5 ! = 1 · 2 · 3 · 4 · 5 = 120 ] : Anzahl ? ] Möglichkeiten : Anzahl der Möglichkeiten ♦ Ist G endliche Menge, so heißt die Anzahl der Elemente von G auch die Mächtigkeit von G Abkürzung : |G| ? Ist A = {2, 3, 5} , so |A| = 3 1.1 QM1_16 3 → Produktmengen. ♦ Sind A und B Mengen, so heißt A × B := { (a, b) | a ∈ A , b ∈ B } auch Cartesisches Produkt von A und B Die Elemente (a, b) von A × B heißen Paare ? Gleichzeitiges Werfen eines Würfels und einer Münze ? Beschreibung der mögichen Ergebnisse ? A = {1, 2, 3, 4, 5, 6} ( Würfelergebnisse ) B = {W, Z} ( Münzenergebnisse ) Ergebnisse des zusammengesetzten Versuchs : → A×B mit (a, b) ................ ......... ....... Würfel ? ( 2 , Z) : Würfel : 2 ................ ............ ........ .. Münze Münze : Z ? ] Ergebnisse der zusammengesetzten Versuchs ? → Äquivalent : | A × B | = ? 1.1 QM1_16 4 • Ist | A | = m und | B | = n , so |A × B | = m · n o n Begründung am Beispiel Würfel und Münze : A = {1, 2, 3, 4, 5, 6} ( Würfelergebnisse ) B = {W, Z} ( Münzenergebnisse ) Veranschaulichung des Cartesischen Produkts B Z t d t t t t W t t t t t t 1 2 3 4 5 6 B o entspricht ( 2 , Z ) → Offenbar : | A × B | = 6 × 2 = 12 A ? Bekannt : Koordinatensystem als Veranschaulichung von R × R y ........ ......... ... ... ... ... ... ........................................... .. ... ... ... .. ... .. ... .. ... .. ... .. ... .. ... .. ... .. ... .. ... .. ... . ... ............................................................................................................................................................................................................................... ...... q 1 1 1.1 (3, 2) x QM1_16 5 • Ist | A | = m und | B | = n , so |A × B | = m · n o n Begründung am Beispiel Würfel und Münze : A = {1, 2, 3, 4, 5, 6} ( Würfelergebnisse ) B = {W, Z} ( Münzenergebnisse ) Systematische Herstellung der Möglichkeiten − durch sukzessives Auswahlverfahren ..... . . . . . . ...... . . . . . . ... 1 2.......... 3 4 5 6 ... ... ... W Z W Z... W Z W Z W Z W Z ...................................................................................................................................................................................................................................................................................................................................... ............. .. ................. .............. ... ... ............... ......... ..... .. .... ........................... ........ ............ .... ...... .......... ... . . . . . . . ...... . ... ....... ......... ...... ................. ... ... ........ ...... ......... .. ...... ......... ... ...... ......... .. ...... ........ . . . . . . . . . ...... . . ......... . . . . ... .... .. ...... ...... . ......... . . . . . . . . . . . . . . ... ...... ......... . .... ...... . . . . . . . . . . ......... . . . . . . . ...... ... . .... ...... . . ......... . . . . . . . . . . . . . . . . ...... ......... ... . .... ...... . . . . . . . . . . . . ......... . . . . . ... ...... . .... ...... . . ... . . . . . . . . . . . . . . . . ........................................................................................................................................................................................................................................................................................................................................................ . . . . . . ... ... .... ..... .... ..... .... .... .... .... .... .... . .. . .. . ... . ... . ... . . ... ... . . . .. .. .. .. ... .. ... .. ... .... ... ..... .. .... .. ..... .. ..... ... . . .. .. ..... . . . . . . .... ... ... ... ... ... ... ... ... ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. . . .... ... .... ... .... ... .... . . ... ... ... . . . . . . . . . . . . . . . ... ... ... ... ... ... . . . . . . .... ... .... ... .... ... .... ... ... .. . . . . . . . . . . . . . . . . . ............................................................................................................................................................................................................................................................................................................................. (1) (2) (3) (1) : Wahl des ersten Elements a von ( a , b ) ∈ A × B − 6 Möglichkeiten (2) : Wahl des zweiten Elements b von ( a , b ) ∈ A × B − Jeweils 2 Möglichkeiten (3) : Fertig B entspricht ( 2 , Z ) → Offenbar : ] Wahlmöglichkeiten insgesamt : 6 · 2 = 12 B : Beachte : ‚ jeweils ‘ ↔ Multiplikation 1.1 QM1_16 6 • Ist | A | = m und | B | = n , so |A × B | = m · n o n Kurz, allgemein : Es gibt m Möglichkeiten für a Für jede davon : n Möglichkeiten für b → Also : m · n Möglichkeiten für ( a , b ) → Produkte von mehr als zwei Mengen ♦ A × B × C := { (a, b, c) | a ∈ A , b ∈ B , c ∈ C } Elemente (a, b, c) heißen Tripel ♦ Entsprechend A × B × C × D Elemente (a, b, c, d) heißen Quadrupel ♦ Etc. etc. Mit dem Latein am Ende ? Elemente von A1 × A2 × . . . × An heißen n-Tupel ? Statt ‚ Quintupel ‘ also auch ‚ 5-Tupel ‘ Ist (a1 , . . . , an ) n-Tupel , so heißen die ai Komponenten ? 1.1 Die dritte Komponente von (1, 9, 7, 1) ist 7 QM1_16 7 Statt A × A × . . . × A ( n Mal ) auch : An ? Viermalige Durchführung eines Wahrnehmungsexperiments − Einzelergebnisse jeweils + oder − ? Beschreibung der Ergebnisse der Gesamtversuchs ? A = {+, −} Gesamtergebnisse : A4 ( a1 , a 2 , a 3 , a 4 ) ? . ....... .......... ... . . ....... .......... ... . . ....... .......... ... . . ....... .......... ... . 1. 2. 3. 4. Versuch (+, −, −, +) : + bei Versuch 1 , − bei Versuch 2 , . . . ? ] Gesamtergebnisse ? ? Würfeln mit drei Würfeln ( verschiedenfarbig ) ? Beschreibung der möglichen Ergebnisse ? A = {1, 2, 3, 4, 5, 6} ( ein Würfel ) Gesamtergebnisse : A3 ? ( 2, 5, 2 ) : 1. Würfel : 2 , 2. Würfel : 5 , 3. Würfel : 2 ? ] Gesamtergebnisse ? 1.1 QM1_16 8 • o n |A| = m , |B | = n , |C | = k ⇒ | A×B×C | = m·n·k Auswahl eines (a, b, c) in 3 Schritten Möglichkeiten ........................................................................................................................................................................................................................................................................................................ .. . . ........ .... ................. ......... ......... .... ......... ......... ........ ......... . . . . . . .... . . ......... ......... ... ......... ......... ......... . . . . . . . . ......... .... ..... . . . . . . ......... . . . ...... . . ......... . . . . . . . ... ....... ...... . . . . . . . ............................................................................................................................................................................................................................................................................................................ . . .. . .. ..... .. ..... . . ... ..... . . ... ... .. .. ... ... . . . . . . ... ... ... ... .. .. . . . . . . . . ... ... ... ... ... ... ... ... ... ... ... ... ... . . . . . . . . . . ... ... ... .. .. .. . . . . . ... . . . ... ... . . . . .. ... . . . . . . . . ... ... . . ... . . . . ... . . . . . .................................................................................................................................................................................................................................................................................................................. .. .......... .......... .......... .......... .......... . . . . . ........ .. ... .... .. ... .... .. ... .... .. ... .... .. ... .... .. .... .... . . . . . . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... .... .. ... .... .. ... .... .. ... .... .. ... .... .. ... .... . . . . . . . . . . . . ... ... .... ... ... .... ... ... .... ... ... .... ... ... .... ... ... .... ... .... .... ... .... .... ... .... .... ... .... .... ... .... .... ... .... .... ... ... ... ... ... ... .. .. .. .. .. .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. .. .. . . . . . . .. .. .. .. .. .. .. .. . . . . . . .. .. .. .. → Insgesamt also m · n · k Möglichkeiten 4 Analog für mehr als drei ‚ Faktoren ‘ → Spezialfall • 1.1 Ist | A | = n , so | Ak | = nk m jeweils n jeweils k QM1_16 9 B Wichtige Technik in der Kombinatorik : − Finde geeignete ‚ Kodierung ‘ → Übersetze dadurch neue Probleme in bekannte ? Wie viele Möglichkeiten gibt es beim Würfeln mit drei Würfeln ? Übersetzung wie oben : ( mit A = {1, 2, 3, 4, 5, 6} ) Die Möglichkeiten entsprechen genau den Elementen von A3 ] Möglichkeiten = | A3 | = | A |3 = 63 = 216 B Entscheidend : die richtige Kodierung ? ] Möglichkeiten bei 4-maligem Wahrnehmungsexperiment ? Dabei : Möglichkeiten bei einmaliger Durchführung : +, − → ] Möglichkeiten = 24 = 16 4 Sprechweise : Elemente von Ak heißen auch k-Tupel aus A 4 Schreibweise : ( 3 Würfel , mit A = {1, 2, 3, 4, 5, 6} ) Möglichkeiten bei drei Würfeln ‚ ↔ ‘ hier : genaue Entsprechung → 1.1 ↔ 3-Tupel aus A ( ‚ bijektiv ‘ ) Wegen der genauen Entsprechung : gleiche Anzahlen QM1_16 10 ? Beispiel allgemein : − Gegeben : Versuch mit n möglichen Ergebnissen − Ergebnisse zusammengefasst in Menge G − Versuch wird k Mal durchgeführt ? ] Ergebnisse des Gesamtversuchs ? Geeignete Kodierung : Ergebnisse des Gesamtversuchs ↔ k-Tupel aus G → ? ] Gesamtergebnisse = | Gk | = nk Gegeben ist eine Urne U mit n Kugeln − Es wird k Mal mit Zurücklegen gezogen − Reihenfolge wird dabei berücksichtigt ? Wie viele mögliche Ergebnisse gibt es ? Abgekürzt : k×ZmZmR − k× Ziehen mit Zurücklegen mit Reihenfolge(berücksichtigung) 1.1 QM1_16 11 ? ] Ergebnisse bei k×ZmZmR aus Urne U mit n Kugeln ? 4 U wird aufgefasst als Menge der Kugeln also | U | = n → Finde geeignete Kodierung ! Möglichkeiten ↔ k-Tupel aus U − Übersetzung : j-te Komponente = Kugel des j-ten Zugs ? (2, 4, 1, 2) : 1. Zug : 2 , → ? − ? 2. Zug : 4 , 3. Zug : 1 , 4. Zug : 2 ] Anzahl Möglichkeiten = nk Weiteres Beispiel Gegeben : b Buntstifte und f Fächer ] Möglichkeiten, die Buntstifte auf die Fächer zu verteilen ? − Es können mehrere Buntstifte in das gleiche Fach kommen − Fächer können auch leer bleiben → Geeignete Kodierung ? Menge der Fächer : F Verteilmöglichkeiten ↔ b -Tupel aus F − ? → 1.1 j-te Komponente : Fach für den j-ten Buntstift (4, 3, 4, 5) : 1. Stift : 4. Fach , 2. Stift : 3. Fach , etc. ] Verteilmöglichkeiten = | F b | = f b QM1_16 12 ? Beispiel : Wie groß ist die Mächtigkeit der Potenzmenge ? ♦ Ist A eine Menge , so ist die Potenzmenge von A die Menge aller Teilmengen von A → Bezeichnung : P(A) P(A) := { B | B ⊆ A } Formal : ? A = {a, b} → P(A) = {∅, {a}, {b}, {a, b}} ? A = {a} → P(A) = {∅, {a}} ? A = ∅ → P(A) = {∅} ? Wie groß ist | P(A) | , wenn | A | = n ? → Finde geeignete Kodierung ! Elemente von A ordnen Teilmengen B von A − ? Ist A = {1, 2, 3, 4, 5} , so : {1, 3, 4} ↔ (1, 0, 1, 1, 0) − ∅ ↔ (0, 0, 0, 0, 0) 1.1 n-Tupel aus {0, 1} j-te Komponente des n-Tupels : j-tes Element von A in B ? − → ↔ ] Teilmengen von A = ] n-Tupel aus {0, 1} = 2n QM1_16 13 → Lexikographische Reihenfolge → Nützliches Hilfsmittel , auch zur Kontrolle : − ? → Systematisches Auflisten aller Möglichkeiten ( dann : Zählen ) Geeignete Systematik ? Wie im Lexikon Voraussetzung : Einzelelemente müssen geordnet sein ( werden ) ? 4×ZmZmR aus A = {a, b, c} Geeignete Kurznotation wählen : abac für (a, b, a, c) → Ergebnis der lexikographischen Anordnung ( spaltenweise ) aaaa aaab aaac aaba aabb aabc aaca aacb aacc → 1.1 abaa abab abac abba abbb abbc abca abcb abcc acaa acab acac acba acbb acbc acca accb accc baaa baab baac baba babb babc baca bacb bacc bbaa bbab bbac bbba bbbb bbbc bbca bbcb bbcc bcaa bcab bcac bcba bcbb bcbc bcca bccb bccc caaa caab caac caba cabb cabc caca cacb cacc cbaa cbab cbac cbba cbbb cbbc cbca cbcb cbcc ccaa ccab ccac ccba ccbb ccbc ccca cccb cccc Tatsächlich : 81 = 34 Möglichkeiten QM1_16 14 → Gleich wahrscheinliche Ergebnisse ♣ Situation : Versuch mit endlich vielen möglichen Ergebnissen − → Alle Ergebnisse werden als gleich wahrscheinlich angesehen Wahrscheinlichkeit eines Ereignisses dann : ] günstige Ergebnisse ] Ergebnisse insgesamt ? Beispiel : Einmal Würfeln − Mögliche Ergebnisse : 1, 2, 3, 4, 5, 6 − Gleichwahrscheinlichkeit sei plausibel ? Mögliches Ereignis : ‚ Gerade Zahl ‘ Günstige Ergebnisse : 2, 4, 6 → Wahrscheinlichkeit für ‚ Gerade Zahl ‘ : ] günstige Ergebnisse 3 1 = = ] Ergebnisse insgesamt 6 2 1.1 QM1_16 15 → Modell der Gleichwahrscheinlichkeit etwas formaler Unterscheide : Ergebnisse und Ereignisse ? Beispiel : Würfeln − Ergebnisse : 1 , 2 , 3 , 4 , 5 , 6 − Ereignis beispielsweise : ‚ Gerade Zahl ‘ B Ereignisse ‚ bestehen aus ‘ Ergebnissen Menge aller Ergebnisse : Meist Ω ? Würfelbeispiel : Ω = {1, 2, 3, 4, 5, 6} Identifiziere Ereignisse mit Teilmengen von Ω − ? nämlich mit denen aus den jeweils ‚ günstigen Ergebnissen ‘ ‚ Gerade Zahl ‘ entspricht dann A = {2, 4, 6} Bei Gleichwahrscheinlichkeit aller Ergebnisse dann : − Wahrscheinlichkeit eines Ereignisses A : P( A ) = 1.1 ] günstige Ergebnisse |A| = ] Ergebnisse insgesamt |Ω| QM1_16 16 W. : Wahrscheinlichkeit ? Beispiel : Prüfung , 5 Prüflinge − 3 Prüfungsthemen − Wahl des Prüfungsthemas : Karte ziehen ? → W. , dass alle das gleiche Thema bekommen ? Finde geeignete Formalisierung ! Menge der Themen : G = {1, 2, 3} Prüfungsmöglichkeiten durch 5×ZmZmR aus G Ω = G5 , | Ω | = | G5 | = 35 = 243 Ereignis A : ‚ Alle bekommen das gleiche Thema ‘ − → Formal : A = { (1, 1, 1, 1, 1) , (2, 2, 2, 2, 2) , (3, 3, 3, 3, 3) } P( A ) = |A| 3 1 1 = 5 = 4 = |Ω| 3 3 81 B Modell der Gleichwahrscheinlichkeit angemessen ? ? Bei verschiedenfarbigen Karten wohl nicht ! 1.1 QM1_16 17 → Permutationen. ♦ Sei G endliche Menge , | G | = n , k ≤ n . Eine k-Permuation aus G ist ein k-Tupel ( g1 , . . . , gk ) aus G mit gi 6= gj für alle i 6= j ? ( 3 , 5 , 1 , 2 ) ist eine 4-Permutation aus {1, 2, 3, 4, 5, 6} ? Gegeben ist eine Urne U mit n Kugeln − Es wird k Mal ohne Zurücklegen gezogen − Reihenfolge wird dabei berücksichtigt ? Wie viele mögliche Ergebnisse gibt es ? Abgekürzt : k×ZoZmR − k× Ziehen ohne Zurücklegen mit Reihenfolge(berücksichtigung) → Finde wieder geeignete Kodierung ! Zugmöglichkeiten ↔ k-Permutationen aus U ? ( 2 , 3 , 1 ) : 1. Zug : 2 , 2. Zug : 3 , 3. Zug : 1 4 Kodierung bekannt von ZmZmR , nur ohne Wiederholungen → ] Zugmöglichkeiten = ] k-Permutationen aus U 1.1 QM1_16 18 ? ] k-Permutationen = ? ♣ G endliche Menge , | G | = n , k ≤ n → Erzeugen der k-Permutationen mit Entscheidungsbaum ? G = {a, b, c, d} , k = 2 .... .... .... .... c b .... ... ... .. a c d a b ....d ... ............. ........... ........... ........ ... ..... ............... ........ ........ ..... ... . . . . . . . ........ ... ..... ........ ... ... ........ ........ ... ... ........ ........ ... ... ........ . . . ........ . . . . . . . ... . ........ ..... . . . . . . . . . ........ . . . ... ..... .. . . ........ . . . . . . . . ... ........ . ..... . . . . . . . ........ . . . . ... ..... .. . ........ . . . . . . . . . ... ........ . ..... . . . . . . . . ........ . . . ... . ..... ........ . . . . . . . . . . . . . ........ ... ...... ............ ..... . . . . . ......... ........ ........ ....... . . . .. .. ... .. ... .... .. ... .... .. ... .... . . . .. .... .... . .. ... . .. ... . ... ... . . . . . . . . . . .. . . . . . . . . . ... .. .... ... .. ..... ... .. ..... ... ... ..... ... ... ... ... ... .... ... .... ... .... ... .... ... ... ... ... .. .. .. ... ... ... ... ... ... ... .. ... .. .. ... ... . . ... . . . .. . . . . . . ... . . ... ... ... . . . . . . . ... . . . . . . . ... . . . . ... ... ... ... ... ... ... .. .. .. ... . . . ... . . . . . . . . . . ... ... ... .. .. .. ... ... . . . . . . .. . . . . . . . . . . ... ... ... ... ... ... ... ... . . . . . . .. . . . . . . . ... .. .. .. ... ... ... ... . . . . . . . . . . . ... . . . . . . . . .. .. .. . . . . .. .. .. .. a b c B B d c Bei der 2. Wahl : Wahlmöglichkeiten verschieden , aber − Zahl der Möglichkeiten gleich ( 3 ) 1.1 a b entspricht ( c , d ) − → d Insgesamt 4 · 3 = 12 Möglichkeiten QM1_16 19 ? ] k-Permutationen = ? ♣ G endliche Menge , | G | = n , k ≤ n → Erzeugen der k-Permutationen mit Entscheidungsbaum − in k Schritten − 1. : 1. Komponente – n Möglichkeiten − 2. : 2. Komponente – jeweils (n − 1) Möglichkeiten − 3. : 3. Komponente – jeweils (n − 2) Möglichkeiten . . . . . . . . . . . . − k. : k. Komponente – jeweils (n − (k − 1)) Möglichkeiten → Anzahl der Möglichkeiten insgesamt : n · (n − 1) · (n − 2) · . . . · (n − (k − 1)) Umformung : n · (n − 1) · (n − 2) · . . . · (n − (k − 1)) · (n − k) · (n − (k + 1)) · . . . · 1 (n − k) · (n − (k + 1)) · . . . · 1 → 1.1 Das ist n! (n − k) ! QM1_16 20 • ] k-Permutationen aus G mit | G | = n : n! (n − k)! ? − |G| = 4 , k = 2 ] k-Permutationen : 1·2·3·4 4! = = 3 · 4 = 12 (4 − 2) ! 1·2 B − ? → Formel bequeme Schreibweise als Rechenvorschrift weniger geeignet 3×ZoZmR aus Urne mit 7 Elementen ] Möglichkeiten : 7! = 5 · 6 · 7 = 210 (7 − 3) ! ? − ? 7-köpfiger Verein , zu bilden : 3-köpfiger Vorstand verschiedene Ämter ] mögliche Vorstände ? Übersetzung : 3×ZoZmR aus 7 Mitgliedern → 1.1 ] mögliche Vorstände : 210 QM1_16 21 → Spezialfall k = n ♦ Die n-Permutationen aus G mit | G | = n heißen auch einfach Permutationen ( von G ) 4 Permutationen : Mögliche Reihenfolgen der Elemente von G • ] Permutationen von G mit | G | = n : o n Begründung wie bei k-Permutationen ( nur einfacher ) 4 Die allgemeine Formel stimmt : n! n! n! n! = = = n! (n − n) ! 0! 1 B Die Definition 0 ! = 1 erweist sich als sinnvoll ? Klausur aus 5 Aufgaben ? ] Reihenfolgen der Bearbeitung ? Die Reihenfolgen sind gerade die Permutationen der Aufgaben → 1.1 ] Reihenfolgen der Bearbeitung : 5 ! = 120 QM1_16 22 ? − → Urne U mit Kugeln 0 , . . . , 9 ( Ziffern ) 3×ZmZmR ( zufällig ) Ergebnis : 3-stellige Zahl ( wie 385 , 121 , 007 , . . . ) ? W. einer Zahl ohne Ziffernwiederholung ? → Geeignete Modellierung Setze U = { 0, 1, . . . , 9 } Ω = U3 , | Ω | = 103 = 1000 Annahme der Gleichverteilung sei angemessen ‚ Verschiedene Ziffern ‘ : Ereignis A Elemente von A sind gerade die 3-Permutationen aus U → ? P( A ) = W., dass mindestens 2 Ziffern gleich sind ? → B 1.1 8 · 9 · 10 |A| = = .72 |Ω| 1000 1 − P( A ) = .28 Gegenereignisse QM1_16 23 → Kombinationen. ♦ Sei G endliche Menge , | G | = n , k ≤ n . Eine k-elementige Teilmenge von G heißt auch k-Kombination aus G ? Gegeben ist eine Urne U mit n Kugeln − Es wird k Mal ohne Zurücklegen gezogen − Reihenfolge wird nicht berücksichtigt ? Wie viele mögliche Ergebnisse gibt es ? Abgekürzt : k×ZoZoR − k× Ziehen ohne Zurücklegen ohne Reihenfolge(berücksichtigung) → Finde wieder geeignete Kodierung ! Zugmöglichkeiten ↔ k-Kombinationen aus U − Teilmenge der gezogenen Kugeln → ] Zugmöglichkeiten = ] k-Kombinationen aus U B Im Ergebnis dasselbe wie Ziehen aller Kugeln auf einmal 1.1 QM1_16 24 4 Erinnerung : Bei Mengen spielt die Reihenfolge keine Rolle ? { a , b , c , d } = { d , b , a , c } ( = { d , b , d , c , a } etc. ) ? Lexikographische Auflistung der 3-Kombinationen aus { a, b, c, d, e } Elemente sind schon in natürlicher Weise geordnet Geeignete Kurznotation vereinbaren : abe statt { a , b , e } Elemente einer Teilmenge in natürlicher Ordnung notieren → Auflistung : abc abd abe acd ace ade bcd bce bde cde 1.1 QM1_16 25 ? ] k-Kombinationen aus G ? → ? (|G| = n) Anzahl sei x Neue Frage : ] k-Permutationen ? − Antwort bekannt : n ! / (n − k) ! Trotzdem : Neue Antwort finden ! → Herstellung der k-Permutationen in zwei Schritten 1. Wahl der k Elemente der Permutation ( ohne Ordnung ) − x Möglichkeiten 2. Wahl einer Reihenfolge der gewählten Elemente − → Jeweils k ! Möglichkeiten ] k-Permutationen : x · k ! Gleichsetzen : x·k! = → Auflösen : x = 1.1 n! (n − k) ! n! k ! (n − k) ! QM1_16 26 • Sei G endliche Menge , | G | = n , k ≤ n . Die Anzahl der k-Kombinationen aus G ist dann n! k ! (n − k) ! ? 3×ZoZoR aus Urne mit 5 Kugeln n = 5, k = 3 → B 5! 5! 4·5 2·5 = = = = 10 3 ! (5 − 3) ! 3! 2! 1·2 1·1 Kürzungsoperationen möglichst ökonomisch ! ♦ Die Zahlen n n! := k ! (n − k) ! k heißen auch Binomialkoeffizienten Sprechweise : n über k B Binomialkoeffizient . ...... ......... ... .. ... . kein n !!! 1.1 QM1_16 27 → Eigenschaften der Binomialkoeffizienten n n = k n−k • o n n n−k = n! (n − k) ! (n − (n − k)) ! n! n! = = = (n − k) ! k ! k ! (n − k) ! 4 • o n 1.1 n n = = 1 0 n • o n n k n! n n! = = 1 = 0 ! (n − 0) ! 1 · n! 0 Insbesondere : 0 = 1 0 n n = = n 1 n−1 n! n n! = = = n 1 ! (n − 1) ! 1 · (n − 1) ! 1 QM1_16 28 → Eigenschaften anschaulich : n n = k n−k → Gegeben G mit | G | = n Mit Komplementbildung : k-elementige Teilmengen ↔ (n − k)-elementige Teilmengen ? ? Mit G = { 1, 2, 3, 4, 5, 6 } : A = { 1, 3, 4, 6 } ↔ Ac = { 2, 5 } → ] k-elementige Teilmengen = ] (n − k)-elementige Teilmengen n n = = 1 0 n → → Es gibt eine Teilmenge mit 0 Elementen ( ∅ ) → Es gibt eine Teilmenge mit n Elementen ( G selber ) n = n 1 → → − 1.1 Entsprechung : Elemente ↔ 1-elementige Teilmengen a ↔ {a} QM1_16 29 → Binomische Formeln ? ? ( a + b )n = ? (a + b)3 = (a + b)(a + b)(a + b) = aaa + aab + aba + abb + baa + bab + bba + bbb = a3 + a2 b + a2 b + ab2 + a2 b + ab2 + ab2 + b3 = a3 + 3 a2 b + 3 ab2 + b3 → Schritte : − Alles ausmultiplizieren − Faktoren in Produkten umordnen − Gleiche Summanden zusammenfassen 4 Ausmultiplizieren : − 3 ursprüngliche Faktoren (a + b) − Jeder davon liefert entweder a oder b → 1.1 Alle entstehenden Produkte haben 3 Faktoren ( a oder b ) QM1_16 30 ( a + b )n = ? ? → Lösung : ( a + b )n als Produkt von n Faktoren (a + b) ausschreiben Ausmultiplizieren − Ergebnis : Summe von Produkten aus Faktoren a , b − Jedes Produkt hat n solche Faktoren Faktoren in den Produkten umordnen − Alle Produkte haben die Form ak bn−k ( k = 0, . . . , n ) Gleiche Summanden ak bn−k zusammenfassen ? Wie oft kommt ak bn−k vor ? ] Möglichkeiten , aus den n Faktoren (a + b) diejenigen k auszuwählen , die a liefern ak bn−k • n kommt Mal vor k ( a + b )n n X n k n−k = a b k k=0 1.1 QM1_16 31 n (a + b) → n X n k n−k = a b k k=0 ? n = 0 0 X 0 k 0−k 0 0 0 (a + b) = a b = a b = 1·1·1 = 1 k 0 0 k=0 ? n = 1 ( a + b )1 1 X 1 k 1−k = a b k k=0 1 0 1−0 1 1 1−1 = a b + a b 0 1 = 1·1·b + 1·a·1 = b + a = a + b ? n = 2 ( a + b )2 2 X 2 k 2−k = a b k k=0 2 0 2−0 2 1 2−1 2 2 2−2 a b + a b = a b + 0 1 2 = 1 · 1 · b2 + 2 · a · b + 1 · a2 · 1 = b2 + 2 ab + a2 = a2 + 2 ab + b2 1.1 QM1_16 32 n (a + b) → n X n k n−k = a b k k=0 ? n = 5 ( a + b )5 5 X 5 k 5−k = a b k k=0 5 2 5−2 5 1 5−1 5 0 5−0 + a b + a b + = a b 2 1 0 5 3 5−3 5 4 5−4 5 5 5−5 + a b + a b + a b 3 4 5 = 1 · 1 · b5 + 5 · a · b4 + 10 · a2 · b3 + + 10 · a3 · b2 + 5 · a4 · b1 + 1 · a5 · 1 = a5 + 5 a4 b + 10 a3 b2 + 10 a2 b3 + 5 ab4 + b5 4 1.1 ( a − b )n = ( a + (−b) )n QM1_16 33 → Pascalsches Dreieck → Übersichtliche Anordnung der Binomialkoeffizienten n : 0 1 2 3 4 5 . 4 1.1 . . . . . . . . . . . . . . . 1 1 1 1 1 2 3 4 6 1 5 10 . . . . . . . k : 0 . 1 . 1 . 1 3 1 4 10 5 . . . 2 3 . 4 . 1 5 . 1 . . . . Jeder Koeffizient ist Summe der darüberliegenden QM1_16 34 → ? Nochmal : Mächtigkeit der Potenzmenge Wie viele Teilmengen besitzt eine Menge der Mächtigkeit n ? → Beantwortung in zwei Schritten : Wie viele Teilmengen der Mächtigkeit k gibt es ? − Dabei : k = 0 , 1 , . . . , n Aufsummieren dieser Anzahlen B − → Hier ist zu summieren ! Aufteilung aller Möglichkeiten in disjunkte Klassen Lösung also : n ] Teilmengen mit Mächtigkeit k : k Summieren : n n X X n n k n−k = 1 1 = ( 1 + 1 )n = 2n k k k=0 1.1 k=0 QM1_16 35 ? → ] n-Tupel aus { 0 , 1 } mit genau k Einsen ? Finde geeignete Kodierung ! n-Tupel mit k Einsen ↔ k-elementige Teilmengen von {1, . . . , n} − ? Teilmenge : Stellen der Einsen ( 0, 1, 0, 0, 1, 1, 0 ) ↔ { 2, 5, 6 } 4 Kodierung ist ( umgekehrt ) schon bekannt → n ] n-Tupel mit k Einsen = k ? − ? → 1.1 6-köpfiger Verein braucht 2-köpfigen Vorstand Vorstände ganz gleichberechtigt ] Möglichkeiten ? 6 6! 6! 5·6 = = = = 15 2 2 ! (6 − 2) ! 2!4! 1·2 QM1_16 36 ♣ Gegeben : 3 M(änner) , 4 F(rauen) ? ] Möglichkeiten einer 4-köpfigen Delegation mit ≥ 2 F ? − → Delegationsmitglieder sind gleichberechtigt Lösung im Überblick : Einteilung der Möglichkeiten in disjunkte Klassen − definiert durch die Anzahl der F Ermittlung der ] Möglichkeiten in den einzelnen Klassen Aufsummieren dieser Zahlen → Lösung konkret : Klassen gegeben durch 2 , 3 , 4 F ? 1.1 Teilproblem : ] Möglichkeiten mit genau k Frauen ? QM1_16 37 ? Teilproblem : ] Möglichkeiten mit genau k Frauen ? ? k = 2 → Lösung in zwei Schritten : Wahl von 2 F ( aus 4 ) 4 − ] Möglichkeiten : 2 Wahl von ( 4 − 2 ) = 2 M ( aus 3 ) 3 − ] Möglichkeiten : 2 → Jede F-Wahl kann mit jeder M-Wahl kombiniert werden → 4 3 ] Gesamtmöglichkeiten : = 6 · 3 = 18 2 2 ? → ? → 1.1 Entsprechend für k = 3 : 4 3 ] Gesamtmöglichkeiten : = 4 · 3 = 12 3 1 Entsprechend für k = 4 : 4 3 ] Gesamtmöglichkeiten : = 1· 1 = 1 4 0 QM1_16 38 → Zurück zur Lösung : 3 disjunkte Klassen von Möglichkeiten − 2 , 3 oder 4 F jeweilige ] Möglichkeiten : − 18 ( 2 F ) , 12 ( 3 F ) , 1 (4 F), → ] Möglichkeiten insgesamt : Summieren → 18 + 12 + 1 = 31 → Alternativlösung über das Gegenteil : Gegenteil von ≥ 2 F : < 2 F Hier : 1 F ( da insgesamt 3 M ) ] Möglichkeiten mit 1 F : 4 7 ] Möglichkeiten für irgendeine Delegation : = 35 4 → 1.1 ] Möglichkeiten mit ≥ 2 F : 35 − 4 = 31 QM1_16 39 → Hypergeometrische Verteilung ♣ Standardbeispiel : Urne mit n Kugeln − ( rot oder blau ) Davon : m rot und n − m blau k×ZoZoR ( oder : auf einmal k Kugeln ziehen ) (0 ≤ r ≤ k) ? W. für r rote Kugeln ? B Voraussetzung : Alle Möglichkeiten gleich wahrscheinlich − → Kugeln seien physikalisch nicht ‚ wesentlich verschieden ‘ W. dann über Quotienten ] günstige Möglichkeiten ] Möglichkeiten insgesamt n ] Möglichkeiten insgesamt = k ? 1.1 ] günstige Möglichkeiten = ? QM1_16 40 ? ] günstige Möglichkeiten = ? Günstige Möglichkeit hier : r rote und k − r blaue Kugeln → Herstellung dieser Möglichkeiten in zwei Schritten Wahl von r roten Kugeln ( aus m ) m − ] Möglichkeiten : r Wahl von k − r blauen Kugeln ( aus n − m ) n−m − ] Möglichkeiten : k−r → Jede Wahl kann mit jeder kombiniert werden → m n−m ] günstige Möglichkeiten : r k−r → W. für r rote Kugeln : m n−m r k−r n k 1.1 QM1_16 41 • n Kugeln , m rot ( Rest blau ) , k×ZoZoR , − Möglichkeiten gleichwahrscheinlich → W. für r rote Kugeln in der Ziehung : m n−m r k−r n k ? n = 12 , m = 8, ? W. für r = 4 rote Kugeln k = 6 8 4 8 12 − 8 5 70 · 6 4 2 4 6−4 = = .4545 = = 12 12 924 11 6 6 ? W. für r = 1 rote Kugel 8 12 − 8 8 4 1 6−1 1 5 = = ?? 12 12 6 6 4 Geht auch nicht : 6 − 1 = 5 blaue Kugeln aus 4 ziehen ? B Herleitung war zu oberflächlich 1.1 QM1_16 42 ♦ Definitionserweiterung : n := 0 k für ganzes k mit k < 0 oder k > n → Dann : ? n = 12 , ? W. für r = 1 rote Kugel m = 8, k = 6 8 12 − 8 8 4 8·0 1 6−1 1 5 = = = 0 12 12 924 6 6 → Passt ! B Definitionserweiterung vermeidet lästige Fallunterscheidungen 1.1 QM1_16 43 ? − Lotto : 6 aus 49 Zusatzzahl wird nicht berücksichtigt ? Wie wahrscheinlich sind r Richtige ? ( r = 0 , 1 , . . . , 6 ) ? Wo liegt der Zufall ? − Im Tipp ?? − In der Ziehung ! → − → Voraussetzung : Alle Ziehungen sind gleich wahrscheinlich Plausibel ( ? ) Korrekte Art der Problemstellung : − Der Tipp liegt vor ( 6 Zahlen ) − Die Kugeln werden ‚ zufällig ‘ gezogen ? 1.1 W. , dass r von den 6 getippten Zahlen gezogen werden = ? QM1_16 44 ? → − → ? → − → W. , dass r von den 6 getippten Zahlen gezogen werden = ? Hilfsvorstellung : Die getippten Zahlen sind rot , die anderen blau ( ätherisch ) Frage dann : W. für r rote Kugeln bei 6×ZoZoR Zurückführung des Problems auf das Standardbeispiel mit n = 49 , m = 6 , k = 6 Lösung : Die W. für r Richtige ist 6 43 6 49 − 6 r 6−r r 6−r = 49 49 6 6 ? r = 6 6 43 1·1 1 6 6−6 = = 49 13 983 816 13 983 816 6 1.1 QM1_16 45 ♣ − Allgemeine Situation : n Kugeln Davon : m rot und n − m blau k×ZoZoR → − ( rot oder blau ) ( oder : auf einmal k Kugeln ziehen ) Neue Sichtweise : Die Zahl R der gezogenen roten Kugeln ist Zufallsvariable Abkürzung : Zva Diese Zva hat eine Verteilung Beschreibung der Verteilung durch ihre W-Funktion : fR 4 fR gibt für jedes mögliche r die W. P( R = r ) an → Hier also : − → fR ordnet r die W. für Ziehung mit r roten Kugeln zu Die W.-Funktion ist hier gegeben durch m n−m r k−r fR (r) = n k 1.1 (r = 0, ... ,k) QM1_16 46 ♦ Ist n > 0 , 0 ≤ m , k ≤ n , und ist die Verteilung einer Zva R durch die W-Funktion fR mit m n−m r k−r fR (r) = (r = 0, ... ,k) n k gegeben , so heißt die Verteilung von R auch hypergeometrische Verteilung mit den Parametern n , m , k Abkürzung für diese Verteilung : H(n , m , k) Abkürzung dafür , dass R diese Verteilung hat : R ∼ H(n , m , k) ? Ist R Zahl der Richtigen im Lotto 6 aus 49 , so gilt R ∼ H(49 , 6 , 6) ? − → Gegeben : 3 M(änner) , 5 F(rauen) Durch Losen wird eine 4-köpfige Delegation gebildet Ist R die Zahl der F in der Delegation , so gilt R ∼ H(8 , 5 , 4) 1.1 QM1_16 47 ? Die H(49 , 6 , 6)-Verteilung ? Lotto , 6 aus 49 − R : Zahl der Richtigen − R ∼ H(49 , 6 , 6) Verteilung von R über die W-Funktion − Exakte Werte : hier ungekürzt , gleicher Nenner r 0 1 2 3 4 5 6 P(R = r) exakt P(R = r) gerundet 6096454/13983816 0.435965 5775588/13983816 0.413019 1851150/13983816 0.132378 246820/13983816 0.017650 13545/13983816 0.000969 258/13983816 0.000018 1/13983816 7.15×10−8 13983816/13983816 1 P(R = r) .5 .1 0 1.1 r r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... ... ... ... ... . .. . r . r . r . 0 1 2 3 4 5 6 r r r QM1_16 48 ? Lotto , 6 aus 49 ? W. für mindestens 3 Richtige ? Anders formuliert : P( R ≥ 3 ) = ? → ‚ R ≥ 3 ‘ setzt sich zusammen aus ‚ R = 3‘ , ‚ R = 4‘ , ‚ R = 5‘ , ‚ R = 6‘ Möglichkeiten sind ‚ disjunkt ‘ → Wn addieren sich P( R ≥ 3 ) = P( R = 3 ) + P( R = 4 ) + P( R = 5 ) + P( R = 6 ) = .017650 + .000969 + .000018 + .0000000715 = .01864 1.1 QM1_16 49 ? Die H(8 , 5 , 4)-Verteilung ? Auslosen einer Delegation von 4 aus 3 M und 5 F − R : Zahl der F − R ∼ H(8 , 5 , 4) Verteilung von R über die W-Funktion − Exakte Werte : hier ungekürzt , gleicher Nenner r P(R = r) exakt P(R = r) 0 0/70 1 5/70 2 30/70 3 30/70 4 5/70 70/70 gerundet 0 0.071429 0.428571 0.428571 0.071429 1 P(R = r) .5 .1 0 1.1 r . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... 0 1 2 r r r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... 3 4 r r QM1_16 50 Elementare W-Theorie. → Ziel : Etwas vereinfachte Theorie endlicher W-Räume → Formalisierung des Konzeptes ‚ Wahrscheinlichkeit ‘ → Grundbegriffe : − Grundgesamtheit , Ergebnisse − Ereignisse − W-Maße Ergebnisse sind die möglichen Ausgänge eines Versuchs oder Zufallsexperiments − In adäquater Genauigkeit beschrieben − Ohne ‚ irrelevante ‘ Aspekte ? Würfel zeigt eine 6 ? I.A. irrelevant : Würfel fällt auf die-und-die Stelle des Tisches ♦ Die Grundgesamtheit ist die Menge der möglichen Ergebnisse Symbol meist Ω ♣ Ω : zunächst immer mit endlicher Mächtigkeit 1.2 QM1_16 51 ? Würfeln − Ω = { 1, 2, 3, 4, 5, 6 } ? Würfeln mit zwei Würfeln ( unterscheidbar ) − ? ? Ω = { 1, 2, 3, 4, 5, 6 } × { 1, 2, 3, 4, 5, 6 } (2, 5) : Erster Würfel : 2 , zweiter Würfel : 5 Zufälliges Ziehen eines Studierenden − Elementarbaustein für das Ziehen einer Stichprobe Dazu : M : Menge der Männer , F : Menge der Frauen G = M ∪F → 1.2 Ω = G QM1_16 52 ? Zufälliges Ziehen von 2 Studierenden aus G = M ∪ F − ? Stichprobe vom Umfang 2 Ω =? Wie wird gezogen ? ZmZmR − ZoZmR − Ω = {A | A ⊆ G, |A| = 2} Roulette − 1.2 Ω = G × G \ { (g, g) | g ∈ G } ZoZoR − ? Ω = G×G Ω = { 0, 1, . . . , 36 } QM1_16 53 → Ereignisse ? Worauf sollen sich Wn beziehen ? ? ‚ Gerade Zahl ‘ beim Würfeln ? ‚ Rouge ‘ beim Roulette ? ‚ 4 Richtige‘ im Lotto ? ‚ 2 Männer ‘ beim Ziehen einer 2-er Stichprobe aus G = M ∪ F B Diese Beispiele : keine Ergebnisse → Sinnvoll : Einführung eines adäquaten Begriffs → Begriff des ‚ Ereignisses ‘ → geeignete Formalisierung ? 1.2 QM1_16 54 → Formalisierung des intuitiven Begriffs ‚ Ereignis ‘ Bei ‚ Ereignissen ‘ : − ? ‚ Passende ‘ und ‚ nicht passende ‘ Ergebnisse ‚ Gerade Zahl ‘ beim Würfeln ? 2 ‚ passt ‘ , 5 ‚ passt nicht ‘ ? ‚ 2 Männer ‘ bei 2×ZoZmR aus G = M ∪ F ? ( Max , Moritz ) ‚ passt ‘ , ( Fritz , Heidi ) ‚ passt nicht ‘ Zusammenfassung der ‚ passenden ‘ Ergebnisse − ? zu einer Teilmenge von Ω Würfeln , ? ? ? 1.2 Ω = { 1, 2, 3, 4, 5, 6 } ‚ Gerade Zahl ‘ → { 2, 4, 6 } Würfeln mit 2 Würfeln , Ω = { 1, 2, 3, 4, 5, 6 }2 ‚ Augensumme 5 ‘ → { (1, 4), (2, 3), (3, 2), (4, 1) } QM1_16 55 ? Zufälliges Ziehen eines Studierenden , ‚ Ziehen einer Frau ‘ → ? Ω = G = M ∪ F F Zufälliges Ziehen von 2 Studierenden aus G = M ∪ F ? ? ‚ Ziehen von 2 Männern ‘ → ZmZmR , ? ‚ Ziehen von 2 Männern ‘ → ZoZoR , ? ‚ Ziehen von 2 Männern ‘ → ? ? Ω = G×G M ×M Ω = {A | A ⊆ G, |A| = 2} {A | A ⊆ M , |A| = 2} Roulette ? ‚ Rouge ‘ → { 1, 3, 5, 7, 9, 12, 14, 16, 18, 19, 21, 23, 25, 27, 30, 32, 34, 36 } ? 1.2 ‚ Manque ‘ → { 1, 2, . . . , 18 } QM1_16 56 4 Bisher : ‚ natürliche ‘ Zuordnung : → ‚ Ereignisse ‘ → − → − 4 Teilmengen von Ω Präzisierender Schritt : Ereignisse sind Teilmengen von Ω Bei endlichen Grundgesamtheiten sogar ( etwas vereinfachend ) : Alle Teilmengen von Ω sind Ereignisse Ereignisse und Teilmengen von Ω Sprechweise : Ereignis A tritt ein − heißt : Für das Ergebnis ω des Versuchs gilt ω ∈ A Würfeln , A = {2, 4, 6} ? sind dasselbe ( ‚ Gerade Zahl ‘ ) ? Ergebnis ist 2 → A tritt ein ? Ergebnis ist 5 → A tritt nicht ein 1.2 QM1_16 57 → − ♦ − ♦ → Besondere Ereignisse Ω tritt immer ein Ω heißt das sichere Ereignis ∅ tritt nie ein ∅ heißt das unmögliche Ereignis Sonderfall : Einelementige Ereignisse ? Würfeln : {6} B Unterscheide : − Ergebnis 6 − Ereignis {6} 4 1.2 ( ‚ Es fällt eine 6 ‘ ) Unterscheidung hier etwas künstlich Einelementige Ereignisse heißen auch Elementarereignisse QM1_16 58 → Ereignisraum Fasse alle Ereignisse zu einer Menge zusammen → Resultat : P( Ω ) ♦ P( Ω ) heißt auch Ereignisraum oder Ereignisalgebra 4 ( Voraussetzung : | Ω | ist endlich ) ? Anzahl der Ereignisse ? • Ist | Ω | = n , so | P( Ω ) | = 2n ? Würfeln ( Ω = {1, 2, 3, 4, 5, 6} ) − ] Ergebnisse : 6 − ] Ereignisse : 26 = 64 1.2 QM1_16 59 → Ereignisse und Mengenoperationen 4 Mengenoperationen mit Ereignissen → neue Ereignisse 4 Möglichkeit des ‚ Rechnens ‘ mit Ereignissen B Daher die Bezeichnung Ereignisalgebra für P( Ω ) ? Durchgehendes Beispiel : 2×ZmZmR aus G = M ∪ F − Ω = G2 P1 : erste gezogene Person , P2 : zweite gezogene Person − A = M × G ( P1 ist M(ann) ) − B = G × F ( P2 ist F(rau) ) 1.2 QM1_16 60 Mengenoperation ∪ ? Ereignis A ∪ B ? A ∪ B tritt ein , wenn für Ergebnis ω gilt : ω ∈ A ∪ B wenn also ω ∈ A oder ω ∈ B ( oder beides ) wenn also A eintritt oder B eintritt ( oder beides ) → A ∪ B : A tritt ein oder B tritt ein ( oder beides ) B ‚ Oder ‘ hier ‚ nicht ausschließend ‘ 2×ZmZmR aus G = M ∪ F , A = M × G , B = G × F ? − A ∪ B = (M × G) ∪ (G × F ) − P1 ist M oder P2 ist F ( oder beides ) A ∪ B tritt ein bei den Ergebnissen ? ( Max, Moritz ) , ( Petra, Erna ) , ( Pierre, Joelle) ? A ∪ B tritt nicht ein beim Ergebnis ( Nastasja, Ivan ) 1.2 QM1_16 61 Mengenoperation ∩ ? Ereignis A ∩ B ? A ∩ B tritt ein , wenn für Ergebnis ω gilt : ω ∈ A ∩ B wenn also ω ∈ A und ω ∈ B wenn also A eintritt und B eintritt → A ∩ B : A tritt ein und B tritt ein 2×ZmZmR aus G = M ∪ F , A = M × G , B = G × F ? − A ∩ B = (M × G) ∩ (G × F ) = M × F − P1 ist M und P2 ist F ? A ∩ B tritt ein beim Ergebnis ( Eusebius, Genoveva ) A ∩ B tritt nicht ein bei den Ergebnissen ? 1.2 ( Pere, Pau ) , ( Daisy, Mary ) , ( Mercedes, Ramón) QM1_16 62 Mengenoperation ? Ereignis Ac ? c Ac tritt ein , wenn für Ergebnis ω gilt : ω ∈ Ac wenn also ω ∈ /A wenn also A nicht eintritt → Ac : A tritt nicht ein 2×ZmZmR aus G = M ∪ F , A = M × G ? − Ac = ( M × G )c = F × G − P1 ist nicht M ( also : P1 ist F ) ? Ac tritt ein bei den Ergebnissen ? ( Bertha, Martha ) , ( Julia, Romeo ) ? Ac tritt nicht ein bei den Ergebnissen ? 1.2 ( Hans, Hans ) , ( Romeo, Julia ) QM1_16 63 Mengenoperation \ ? Ereignis A \ B ? A \ B tritt ein , wenn für Ergebnis ω gilt : ω ∈ A \ B wenn also ω ∈ A , aber nicht ω ∈ B wenn also A eintritt , aber B nicht eintritt → A \ B : A tritt ein , B jedoch nicht 2×ZmZmR aus G = M ∪ F , A = M × G , B = G × F ? − A \ B = (M × G) \ (G × F ) = M × M − P1 ist M , P2 aber nicht F ( also : P1 und P2 sind M ) ? A \ B tritt ein beim Ergebnis ( Hans, Franz ) A \ B tritt nicht ein bei den Ergebnissen ? 1.2 ( Eugen, Lisa ) , ( Anna, Anna ) , ( Papagena, Papageno) QM1_16 64 ? Ausschließendes Oder ? Wie ist ausschließendes Oder zu formulieren ? → Beispielsweise so : ( A ∪ B) \ ( A ∩ B ) − A oder B tritt ein , nicht aber beide − Also : Genau eines der Ereignisse A , B tritt ein 2×ZmZmR aus G = M ∪ F , A = M × G , B = G × F ? − ( A ∪ B) \ ( A ∩ B ) = ( ( M × G ) ∪ ( G × F ) ) \ ( M × F ) − P1 ist M oder P2 ist F , aber nicht beides ( A ∪ B) \ ( A ∩ B ) tritt ein bei den Ergebnissen ? ( Hermann, Heinrich ) , ( Gerda, Gerda ) ( A ∪ B) \ ( A ∩ B ) tritt nicht ein bei den Ergebnissen ? 1.2 ( Hermann, Hilde ) , ( Hilde, Hermann ) QM1_16 65 → ? Aussagen über Ereignisse in Mengensprache Beispiele hier : Experiment Würfeln mit 2 Würfeln − − Ω = { 1, 2, 3, 4, 5, 6 }2 S : Abkürzung für Augensumme A ∩ B = ∅ A und B können nicht beide eintreten In diesem Fall heißen A und B auch disjunkt ? A : ‚ S > 8 ‘ und B : ‚ 1. Würfel zeigt 1‘ sind disjunkt A ∪ B = Ω − ? 1.2 Es tritt immer ( mindestens ) eines der Ereignisse A , B ein Für A : ‚ S > 4 ‘ und B : ‚ S < 9 ‘ gilt A ∪ B = Ω QM1_16 66 A ⊆ B ? Bedeutung ? Wenn A eintritt , so gilt für Ergebnis ω : ω ∈ A Wegen A ⊆ B gilt dann auch ω ∈ B Es tritt also auch B ein → A ⊆ B : Wenn A eintritt , so tritt auch B ein ? Für A : ‚ 1. Würfel ≥ 5 ‘ und B : ‚ S ≥ 4 ‘ gilt A ⊆ B ? Noch ein Beispiel mit zwei Würfeln − G = { 2, 4, 6 } , − A : ‚ S ist gerade ‘ → U = { 1, 3, 5 } G × U ⊆ Ac Wenn 1. Würfel : gerade Zahl und 2. Würfel : ungerade Zahl → 1.2 so gilt : Augensumme nicht gerade QM1_16 67 → Gegenereignisse ♦ Ist A Ereignis , so heißt Ac auch Gegenereignis von A 4 Wegen (Ac )c = A ist A auch Gegenereignis von Ac → Sprechweise auch : A und Ac sind Gegenereignisse Eigenschaften von Gegenereignissen : − A ∩ Ac = ∅ − A ∪ Ac = Ω 4 ? − ? − 1.2 Es tritt immer genau eines der Ereignisse A , Ac ein Ein Würfel , G = { 2, 4, 6 } , U = { 1, 3, 5 } Das Gegenereignis von G ist U Zwei Würfel , G = { 2, 4, 6 } , U = { 1, 3, 5 } Das Gegenereignis von G×{1, 2, 3, 4, 5, 6} ist U ×{1, 2, 3, 4, 5, 6} QM1_16 68 → Disjunkte Zerlegungen ♦ Sind A1 , . . . , An , A ⊆ Ω , so heißt ( A1 , . . . , An ) disjunkte Zerlegung von A , falls (i) Ai ∩ Aj = ∅ für i 6= j (ii) A1 ∪ A2 ∪ . . . ∪ An = A Abkürzung : d.Z. ? ( A , Ac ) ist d.Z. von Ω .................................................................................................................................................................................................................................................................................................................................... ... ... ....................................................................................................................................................................... ......................................................................................................................................................................................... .................................................... ... ... ... .... ......................................................................................... ... .. ..... . . .. .. . .. .... .................................... ... ... ... ... ... ... ... ................................................................................. ......................... .. ..... ... ... ... ... ... ... ... ... ... ........................................................ .... .... .... .... .... .... .... .......................................................................... ............................... ... .... .... .... .... .... .... ... .... ......................................................................... .............................. .... ... ... ... ... ... ... .... ... ......................................................................... .............................. ... ... ... ... ... ... ... ... ... ........................................................................ ... .. .. .. .. .. ... .. .. .. ... ... .. . . . . . ...................................... ... .... .... ... .... .... .... ... ........................................................................ ..................................... ... ... ... ... ... ... ... ................................................................................ ....... .. . .. ... .. .. ..... ... .. ..................................................... ..... .... ... ................................................................................................ .................................................................................................................................................................................. ...................................................................................................................................................................... ... .. ................................................................................................................................................................... ................................................................................................................................................................... Ω A ? ( A \ B , A ∩ B ) ist d.Z. von A .................................................................................................................................................................... ... .... .... ... .... ... ......................................... ...................................... . . . . . . ... ... . ...... ... ... ... ... ... ... ............... . . . . . . ... ... . . . ..... ........ ... ... .... .... ............................ . . . . ... ... ... ... ... ... ... ... ....... ........................... . ...... . . . . .. . . . . .............................. . ..... .......................... .. .... .................................. .... .... .... .... .. ............................ ... ... ... ... ... .... ... ... ... .................................... .. . ... . .... ... ... ... ... ... ..................................... ... ... ... .. .. ... ... .. ... ... .... ... ... ... ... ... ... .................................... ... ... ... ..... ... .. .. ... ............................... .. ... ... .... ... ... ... ... ....... ... . . . ... ... . . ... .. .. .. .. ... ...................... .. . ....... .. .. .. .. ....... .... . ... ... . ... ...... .. .. ... .. . .......... . . . ... ... . ........ .. .. .. .................. .. ...................... .............................. ... ... ... ... ... ... .. ... ................................................................................................................................................................. A 1.2 B QM1_16 69 ? ( A \ B , B \ A , A ∩ B ) ist d.Z. von A ∪ B .................................................................................................................................................................... ... .... ... ... ... ... ................................ .......................................... . . . . . . .... . . . ... . . ......... ........ ........ .................................. ........ ........ ............. . . . .... ... . . ........... ......... ......... ............................................. ......... ........ ............. ... ... . .... ..... .... ..... .. . ...... . . . . . . . . . . .......................... . . . . . . . . .. .. .. .. .. . . .. .. .. .. . ....................... .... ............................................ ......... ......... .................................... ......... ......... ................................................. ... ... ... .... ....... ....... ....... .......................................... ....... ....... ....... .... ... ... ........... ....... ....... ....... ...................................... ....... ....... ....... .......... ... ...... ...... ...... ...... ... ... ..... ... ... .... .. ......... ...... ...... ....... ..................................... ......... ......... ........ ........ ... ... ... ...... ....... ...... ........................................... ...... ....... ......... ... ... . ..... ..... ..... .. ... ...... ..... ...... ....... . . . . . . ... ... . . . . ... ..... ...... ...... ......................... ...... ..... ...... ... ..... ..... .... .... ..... .... .... ..... .... .... ... ... ...... ..... ..... ..... ........... ..... ..... ..... ..... ... ... ....... ..... ...... ........................ ..... ............. ............................. ............................. ... ... ... ... ... ... ... ... .................................................................................................................................................................. A ? B ( A , B \ A ) ist noch eine d.Z. von A ∪ B ..................................................................................................................................................................... ... ... ... ... ... ... ........................ ...................................... . . . . . . .... . . ... . ........................................................ ... .. ... ... ........... . . . . . . .... ... . .... .... ......... ... ... ... ... ......... . . . . . . ... ... ..................................................................... .... .... .... .... ....... .......................... . .................... . . .... ........................................................................................................ .... .... .... ................................................. ... ... ............................................................................ ... ... ... ... .... ... ... ... ............................................................................. ... ... ... ... ... ... ... . . . .. .. . ... ... ............................................................................... .... .... .... .... .... ... ... ... . ... ... ... ... ... ... ... ... . . ... ... .......................................................................... ... .. .. ... .... . . . . ... ... . . . ............................................................... .. .. .. .. .. .. . ..... . . . ... ... ..... . . . . . . ............................................................ .... .... .... .... .......... ... ... ....... .......... .. .. .. ........ . . . . . . ... ... . .......................... .......................... ... ... ... ... ... .. ................................................................................................................................................................... A ? − B 6×ZoZoR aus G ( 10 Personen, davon 5 F(rauen) ) Ω = {A | A ⊆ G, |A| = 6} Bj : ‚ j gezogene Personen sind F ‘ ( j = 0, . . . 6 ) → ( B0 , . . . , B6 ) ist d.Z. von Ω 4 B0 = B6 = ∅ → Auch ( B1 , . . . , B5 ) ist d.Z. von Ω 1.2 QM1_16 70 → Erinnerung : Funktionen ♦ Eine Funktion f : D → W ordnet jedem Element des Definitionsbereichs D eindeutig ein Element des Wertebereichs W zu Statt ‚ Funktion ‘ auch ‚ Abbildung ‘ ? Beispiel : f : R → R mit f (x) = x2 . ...... ......... .. ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. . . . . ... .... ... ... ... ... ... ... .. ... .. ... . . . . ... .... ... ... ... ... ... ... ... ... .. ... ... . ... ... ... ... ... ... ... .. ... ... .. . . . . ... .... ... ... ... ... ... ... .. ... ... .. . . . . ... .... ... ... ... ... ... ... .. ... .. ... . . . . ... .... ... ... ... ... .... .... ..... ... ..... ..... ...... .... .......... ................................................................................................................................ ..... f (x) 1 1 x Kurzschreibweise auch : f : x 7→ x2 − Voraussetzung : Definitions- und Wertebereich sind klar ‚ 7→ ‘ auch bei konkreten Werten : 2 7→ 22 = 4 4 ? 1.2 Genauer Wertebereich nicht so wichtig , solange passend bei x 7→ x2 Wertebereich auch [ 0, ∞ ) statt R QM1_16 71 → W-Maße ♦ Ist Ω 6= ∅ endliche Grundgesamtheit , so heißt eine Funktion P : P( Ω ) → R ein W-Maß auf Ω , falls folgende Bedingungen erfüllt sind : (i) P(A) ≥ 0 (ii) P(Ω) = 1 (iii) für alle A ⊆ Ω P(A ∪ B) = P(A) + P(B) falls A ∩ B = ∅ (i) : ‚ Positivität ‘ , (ii) : ‚ Normierung ‘ , (iii) : ‚ Additivität ‘ (i) , (ii) , (iii) : W-Axiome ? Idealer Würfel , Ω = { 1, 2, 3, 4, 5, 6 } − → ? Durch P(A) := | A | / | Ω | wird ein W-Maß definiert Axiome nachprüfen ! P( ‚ Gerade Zahl ‘ ) = P({2, 4, 6}) = 3/6 = 1/2 B Dies W-Maß trifft die Intuition → Allgemein bei ‚ gleichwahrscheinlichen Ergebnissen ‘ − 1.2 P(A) := | A | / | Ω | liefert plausibles W-Maß ‚ Gleichverteilung ‘ QM1_16 72 → Flächenanalogie Hilfreich : Vorstellung der Ereignisse als Teilflächen einer Gesamtfläche Ω .................................................................................................................................................................... ... ... ... ... ... ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . . . ... . . . . ............ ....... ..... . . . . . . . . . .... ... . . . . ..... .... .... ........ . . . . . . ... ... . . ... . . ... . . . . . . ..................... . . .......................... ... ... . . . . . . . . . .. . . . . . . . . . ... ................................ .. . . . . . ... ................... ... ... ... .... ... ... ... ... ... .... .... .. ... ... ... ... ... .. ... ... ... ... ... ... ... ... . . ... ... . . ... ... . . . . ... . . ... ... ... .. .. . . ... ..... ..... . . ... ... . ..... ..... ......... . . . ... ... .. ....... ........ . . . . . . . . . . . ... ... .............. ............. .............. ............. ... ... ... ... ... ... ... .. ................................................................................................................................................................... Ω A B W-Maß hat dann die Eigenschaften eines Flächenmaßes ? 3. Axiom : P(A ∪ B) = P(A) + P(B) falls A ∩ B = ∅ .................................................................................................................................................................... ... .... .......... ........................... .... ......................................... ..... ... ........................... ... ... ... ... ... ... ... ... ... .... ... ... ... .... ... ... ... . . . . . ... ... ... . .......................... . . . ................................................ . ...... ... . . . . . . . . . . . .... ............................ .. . . ... ... ... ... ... ... ... ... .. ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... ... ... . ... ... ... ... ... ... ... . . . . . . . . . . . . . ... ... . . . . . ... . .......... ....................... .......... .... ... ... ...................................................... ............ ... ... ... ... ... .. ................................................................................................................................................................. Ω A B → W-Maße verhalten sich ähnlich wie Flächenmaße 4 In Mathematik ( Maßtheorie ) einheitliche Behandlung 1.2 QM1_16 73 4 Bemerkungen 4 W-Maß als Funktion passt als Formalisierung zu ‚ Jedes Ereignis hat eine Wahrscheinlichkeit ‘ 4 Verzicht auf Definition von ‚ Wahrscheinlichkeit ‘ − Nur Formulierung von Eigenschaften , denen ( hoffentlich ) jeder zustimmen kann ( der an Wn glaubt ) 4 Frage ‚ Gibt es Wn ‘ ( Wo ? ) bleibt unberührt 4 Definition ohne quantitative Festlegungen B Solche Festlegungen müssen bei Anwendungen gemacht werden → W-Modelle für gegebene Bereiche ? W-Modell für Würfeln : Gleichverteilung ? Richtig für einen bestimmten konkreten Würfel ? − ? Völlige Symmetrie ? ‚ Richtig ‘ ?? 4 Unwuchten ? oder besser : ‚ Angemessen ‘ ? Gleichverteilungsmodell richtig für idealen Würfel − Wo gibt es den ? Im Ideenhimmel ? − Richtigkeit hier tautologisch B ‚ Idealer Würfel ‘ durch Gleichverteilung definiert 1.2 QM1_16 74 → ‚ Statistiker haben die W. von ... zu ... berechnet ‘ 4 Suggeriert grobes Missverständnis B Statistiker können gar nichts ausrechnen − außer für ideale Situationen − oder ( konkrete Situationen ) unter Modellannahmen − die mehr oder weniger plausibel sind ? ‚ W. für 6 Richtige im Lotto ist 1/13983816 ‘ − Stimmt für die ideale Lottotrommel ( wo ist die ? ) − wenn es keine prophetischen Fähigkeiten gibt 4 − ? Aufgabe der Statistik : Entscheidung zwischen verschiedenen W-Modellen Ist dieser Würfel fair oder nicht ? − Kann das Gleichverteilungsmodell verworfen werden ? 4 Für unendliche Grundgesamtheiten ist Definition des W-Maßes zu modifizieren 1.2 QM1_16 75 → Frequentistische W-Interpretation → W. ist Grenzwert relativer Häufigkeiten ( r.H. ) ? Frage : W. der 6 beim Würfeln ? Es wird 180 Mal gewürfelt Kumulative Bildung der r.H. der 6 Anfang der Daten : 24653 66452 23124 35635 Würfe ] 6en Kumulierte r.H. Dezimal 5 1 1/5 .2 10 3 3/10 .3 3 3/15 .2 15 20 4 4/20 .2 Konvergenz : 1 r.H. .5 .1 r r r r rr r rrr r rrr rr r rrr rr rr rrrrrrrrrrrrrrrrrrrr rrrrrrrrrrrrrrrr rrrr rrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr ..........................r......................r .......................rr ...rr ...rr ....r r.......r...................rr........rr...r..................................r....................................................................................................................... rr 1/6 = .1666... ................................................................................................................................................................................................................................................................................................................................................................................ 10 1.2 50 100 150 n QM1_16 76 Konvergenz der r.H. : Empirische Tatsache ? Konvergenz kann auch in W-Theorie bewiesen werden → ! Rechtfertigung der frequentistischen Interpretation ! Genauer hinsehen ! Aussage der W-Theorie etwa : − Konvergenz tritt auf mit Wahrscheinlichkeit 1 → Zirkel ! → Trotzdem : − Intutition von W. als Grenzwert von r.H. ist naheliegend − Oft nützlich bei der Plausibilisierung neuer Konzepte 1.2 QM1_16 77 → W-Räume ♦ Eine Grundgesamtheit Ω mit einem W-Maß P heißt auch Wahrscheinlichkeitsraum ( W-Raum ) Formale Schreibweise : < Ω , P > ♦ Ist das W-Maß P eines W-Raums < Ω , P > gegeben durch P(A) = |A| , |Ω| so heißt < Ω , P > auch Laplaceraum B Modell der ‚ Gleichwahrscheinlichkeit ‘ der Ergebnisse ? Idealer Würfel ? ‚ Zufälliges ‘ Stichprobenziehen 4 1.2 Annahme eines Laplaceraums ist im Einzelfall zu prüfen QM1_16 78 → • Folgerungen aus den Axiomen Ist (A1 , . . . An ) d.Z. von A so gilt : P(A) = n X P(Ai ) i=1 o n Zunächst n = 2 A = A1 ∪ A2 mit A1 ∩ A2 = ∅ Axiom (iii) : P(A) = P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) Nun : n = 3 , (A1 , A2 , A3 ) ist d.Z. von A (= A1 ∪ A2 ∪ A3 ) ..................................................................................................................................................................... ... ........... .... ........................... .... ......................................... ..... ... ... ........................... ... ... ... ... ... .. . . .... ... .... . . ... .. .... . ... ... ... . ... .. .... . . . ... . . ... . . ... ........................... . . ......... . . . . . . . . . ... ............................... ...................... ............ ... .. . . . . . . . . . . . . . .. . . ... ... .. .... . ... .... . ... ... .. . . ... .... ... . . ... ... .. . ... ... . ... ... ... .. . ... ... . ... . ... ... .. . . ... ... . ... . ... ... ... .. . ... ... ... . . . ... ... ... .. . ... ... ... . ... .... ... .. . . . . . . . . . . . . . . . . . . . . ... ... . . . . . . . . ... . . .......... . ... ......................... . . . . ... ... . ................................................. .......... .. ... . . . ... ... ... ... ... ... ... .. .. ................................................................................................................................................................... ... ... .. Ω A1 A3 A2 ((A1 ∪ A2 ), A3 ) ist d.Z. von A P(A) = P(A1 ∪ A2 ) + P(A3 ) ( hier : ‚ n = 2 ‘ ) (A1 , A2 ) ist d.Z. von A1 ∪ A2 P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) → ( schon gezeigt ) P(A) = P(A1 ∪ A2 ) + P(A3 ) = P(A1 ) + P(A2 ) + P(A3 ) Analog : Von n = 3 zu n = 4 zu n = 5 . . . 1.2 QM1_16 79 • P(A) + P(Ac ) = 1 o n (A, Ac ) ist d.Z. von Ω .................................................................................................................................................................................................................................... .................................................................................................................... . ............................................................................................................................................. .......................................... .... .... .... .... ................................................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...................................... .. .. ... .. ... .. .. .. .................................................. . ............. .. .. .. .. .. .. .. .. ... . ....................... .... .... .... .... .... .... .... .... .... ......................................................... ...................... .... ... .... ... ... ... ... ... ... ................................................... .......................... ... ... .... ... .... ... ... ... .................................................. .......................... ... ... ... ... ... ... ... ...................................................... ............................... .... ... ... ... ... ............................................................ ................................................................................................................................................................................................................................. ..................................................................................................................... ..................................................................................................................... ................................................................................................................. Ω A 4 Wn von Gegenereignissen addieren sich zu 1 • P(A) ≤ 1 für alle A o n P(A) + P(Ac ) = 1 und • P(Ac ) = 1 − P(A) • P(∅) = 0 o n ∅ = Ωc ! − 1.2 P(Ac ) ≥ 0 ( Ax. (i) ) Umkehrung muss nicht gelten : Aus P(A) = 0 folgt nicht A = ∅ QM1_16 80 • Aus A ⊆ B folgt P(A) ≤ P(B) B A o n .................................................................................................................................................................... ... .... ... ... ... ... ........................... . . . . . .... . . ... . ...... ..... . . . . . .... ... . ..... .... . . ... ... . ... ... .......................... ... ... . ... .... ................................ ................. ... ... . . . . . . . ... ... . ... .... .. ... ... ... ... .... .... ... .. ... ... ... ... . .. .. ... ... ... ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . . . ......... ... ... .. .. . . ................................ ... . . . . . ... ...... . . . ..... ....................... .... ... . ... ...... . . . ... ... . .. ....... .................................. ... ... ... ... ... ... ... ... .................................................................................................................................................................. Ω (A, B \ A) ist d.Z. von B ..................................................................................................................................................................... ... ... ... ... .... ... ....................... . . . . . . . . . ... ... ................................................... . . . . . . ... ... ..... .... . . . . ... ... ............................................................... . ... ... ..................................................................... . ... ... ....... ... ... ...................................... ................................................ ... ... ................. ... ... ... ................................... ... ...... .. .. .. .. ... . ... ... ................ .. ... .. ... ............................ ... ... . ... ..... ... ... ... ... ... . . ... ... .............. ... .. ... .. .......................... . . . . ... ... ................... .. .. ............................. . ... ... ..... ........................ ...................................................... ... ... ....... . . . . . . ... ... . ........................... ... ... ... ... ... .. ................................................................................................................................................................... Ω P(A) + P(B \ A) = P(B) → 1.2 Wegen P(B \ A) ≥ 0 : P(A) ≤ P(B) QM1_16 81 • P(A ∪ B) = P(A) + P(B) − P(A ∩ B) .................................................................................................................................................................... ... ... ... ... ... ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . ... . . . . ............. ....... ...... . . . . . . . . . . . .... ... . ..... .... .... ........ . . . . . . ... ... . . ... . . ... . . . . . . . . . ..................... .......................... ... ... . . . . . .. . . . . . . . . . . . . . ... ................................. .. . . . ... .................. . . . ... ... ... .... ... ... ... ... ... .... .... .. ... ... ... ... .. ... ... ... ... ... ... ... ... ... . . . . ... ... . . ... ... . . . . ... ... . ... ... .. . ... ... . ..... ..... ...... .. . . ..... ..... ...... . ... ... . ....... ....... ... . . . . . . . . ... ... . . .............. .............. .............. .............. ... ... ... ... ... ... ... .. ..................................................................................................................................................................... B A o n Zerlege geeignet ! (A \ B, A ∩ B) ist d.Z. von A (B \ A, A ∩ B) ist d.Z. von B (A \ B, B \ A, A ∩ B) ist d.Z. von A ∪ B → P(A ∪ B) = P(A \ B) + P(B \ A) + P(A ∩ B) = P(A \ B) + P(A ∩ B) + P(B \ A) + P(A ∩ B) − P(A ∩ B) = P(A) + P(B) − P(A ∩ B) • P(A ∪ B) ≤ P(A) + P(B) • P(A1 ∪ A2 ∪ . . . ∪ An ) ≤ P(A1 ) + P(A2 ) + . . . + P(An ) o n Induktiv , nächster Schritt ( 2 → 3 ) beispielsweise P(A1 ∪ A2 ∪ A3 ) = P((A1 ∪ A2 ) ∪ A3 ) ≤ P(A1 ∪ A2 ) + P(A3 ) ≤ P(A1 ) + P(A2 ) + P(A3 ) 1.2 QM1_16 82 → ? W-Funktionen Wie gibt man ein W-Maß an ? Eine Möglichkeit : Auflistung der Werte : − → ? A 7→ P(A) für alle Ereignisse A Aufwändig und umständlich ! Beim Würfel : 26 = 64 Einzelangaben Zur Rekonstruktion aller Wn : − Kenntnis der Wn der Elementarereignisse genügt : Ist A = { ω1 , ω2 , . . . , ωk } , so gilt : ( {ω1 } , {ω2 } , . . . , {ωk } ) ist d.Z. von A → P(A) = P({ω1 }) + P({ω2 }) + . . . + P({ωk }) → Zusammenfassung dieser Wn aller Elementarereignisse 1.2 QM1_16 83 → Zusammenfassung der Wn aller Elementarereignisse : ♦ Ist < Ω , P > (endlicher) W-Raum , so heißt die Funktion f : Ω → R mit f ( ω) := P({ω}) für alle ω ∈ Ω auch die zu P gehörende Wahrscheinlichkeits-Funktion Abkürzung für ‚ Wahrscheinlichkeitsfunktion ‘ : W-Funktion • Ist f die zu P gehörende W-Funktion , so gilt für alle A ⊆ Ω : X P(A) = f (ω) ω∈A o n X f (ω) = ω∈A → − X P({ω}) = P(A) ω∈A Angabe eines W-Maßes auf Ω mit | Ω | = n : mit Hilfe der W-Funktion f durch n Einzelangaben f (ω) Zur Vollständigkeit : X f (ω) = 0 ( ‚ leere Summe ‘ ) ω∈∅ 1.2 QM1_16 84 ? ? → 2 ‚ reale ‘ Würfel − 36 Angaben − statt 236 = 68 719 476 736 Ist < Ω , P > Laplaceraum , so ist f ≡ 1 |Ω| ( ‚ konstant ‘ ) Eigenschaften von W-Funktionen • Ist f W-Funktion zum W-Maß P auf Ω , so gilt : (i) (ii) f (ω) ≥ 0 für alle ω ∈ Ω X f (ω) = 1 ω∈Ω o n (i) : f (ω) = P({ω}) ≥ 0 (ii) : X f (ω) = P(Ω) = 1 ω∈Ω 4 Die beiden Eigenschaften charakterisieren W-Funktionen vollständig → 1.2 Konstruktion eines W-Maßes aus der erhofften W-Funktion QM1_16 85 • Ist f : Ω → R Funktion auf endlichem Ω mit (i) (ii) f (ω) ≥ 0 für alle ω ∈ Ω X f (ω) = 1 , ω∈Ω so wird durch die Vorschrift X P(A) := f (ω) für alle A ⊆ Ω ω∈A ein W-Maß P auf Ω definiert, dessen W-Funktion f ist o n Zeige : a) P ist W-Maß ( Axiome nachprüfen ) b) W-Funktion von P ist dann f ? − ? ( klar ) Gegeben : 55 Studierende ( Ω ) , einmal zufällig Ziehen Aber : 10 kommen nur jedes zweite Mal Geeignetes W-Maß ? Konstruktion über die W-Funktion f W-Funktion für regelmäßigen Teilnehmer : x W-Funktion für unregelmäßigen Teilnehmer dann : x/2 Wegen (ii) muss gelten X x 1 = f (ω) = 45 · x + 10 · 2 ω∈Ω Also 50 x = 1 1.2 oder x = 1/50 QM1_16 86 → Häufigkeiten und Wn → Zusammenhang für motivierende Argumentationen ( vage ) Grundlage : Frequentistische Intuition ? ] 6en bei 600-mal Würfeln ? ♣ Ein Ereignis A hat W. p − ? Der Versuch wird sehr oft durchgeführt ( N Mal ) Wie oft tritt A ein ? ( ungefähr ) ] Eintreten von A : n r.H. also : n/N Frequentistische Interpretation → → n ≈ Np ? ] 6en bei 600-mal Würfeln : ≈ 600 · 1.2 n/N ≈ p 1 = 100 6 QM1_16 87 → Bedingte Wahrscheinlichkeiten ? W. von positiver Diagnose bei Krankheit ? W. von Krankheit bei positiver Diagnose ? 2 Würfel , A : ‚ Summe > 7 ‘ , B : ‚ 1. Würfel : 3 ‘ 15 1 , P(B) = , 36 6 W. von A ‚ unter B ‘ ? P(A) = ? P(A ∩ B) = 2 36 Allgemein : Gegeben Ereignisse A , B mit P(B) > 0 ? W. von A ‚ unter B ‘ ? ? Was soll das überhaupt heißen ? Motivierung der Definition (!) mit frequentistischer Intuition Führe Versuch oft durch ( N -mal ) Betrachte nur die Ergebnisse , bei denen B eintritt Wie groß ist davon die r.H. von A ? → 1.2 Diese r.H. sollte etwa die ‚ bedingte W. ‘ sein QM1_16 88 Versuch wird N -mal durchgeführt Auftreten von B : ≈ N · P(B) Mal Darunter : Auftreten von A : ≈ N · P(A ∩ B) Mal → ? R.H. : ≈ P(A ∩ B) N · P(A ∩ B) = N · P(B) P(B) Würfelbeispiel : 36000-mal Würfeln Eintreten von B ( ‚ 1. Würfel : 3 ‘ ) : etwa 36000 · P(B) = 36000 · 1 = 6000 Mal 6 Dazu Eintreten von A ( ‚ Summe > 7 ‘ ) : etwa 36000 · P(A ∩ B) = 36000 · → 1.2 r.H. etwa 1 2000 = 6000 3 2 = 2000 Mal 36 P(A ∩ B) = P(B) QM1_16 89 ♦ Sind A und B Ereignisse mit P(B) > 0 , so heißt P(A | B) := P(A ∩ B) P(B) auch bedingte Wahrscheinlichkeit von A unter B 4 Definition in Harmonie mit frequentistischer Interpretation B ‚ Bedingtheit ‘ hat allgemein nichts zu tun − mit zeitlicher Reihenfolge − mit Kausalität schon gar nicht 4 ? In speziellen Fällen jedoch oft 2 Würfel , A : ‚ Summe > 7 ‘ , B : ‚ 1. Würfel : 3 ‘ P(A) = → 15 , 36 P(B) = 1 , 6 P(A | B) = P(A ∩ B) = 2 36 2/36 1 = 1/6 3 4 P(A) ‚ ändert sich bei Eintreten von B ‘ → Es besteht eine Art ‚ Abhängigkeit ‘ zwischen A und B 1.2 QM1_16 90 • Ist P(B) > 0 , so gilt : (i) P(A | B) ≥ 0 für alle A ⊆ Ω (ii) P(Ω | B) = 1 (iii) P(A1 ∪ A2 | B) = P(A1 | B) + P(A2 | B) für A1 ∩ A2 = ∅ 4 Kurz : P( · | B) ist ein W-Maß auf Ω P( · | B) ist Kurzschreibweise für : A 7→ P(A | B) o n (i) , (ii) : klar (iii) : Gilt A1 ∩ A2 = ∅ , so auch (A1 ∩ B) ∩ (A2 ∩ B) = ∅ ferner (immer) (A1 ∪ A2 ) ∩ B = (A1 ∩ B) ∪ (A2 ∩ B) ......................................................................................................................................................................................................................... ... ... ... ... . ... . ................ ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . . . . ....... ....... ................. .. ...... . ...... . . ......................... . . . . ... ... ..... ..... ........ .... . . . . . . ... ... . . .. . . . ... .................................................................................................................................................................................... ..... ... . . ... . . . ... ... ... ... . ... .. ... .. . ... ... ... ... . . ... ... .. ... . ... ... .... ... . . . . .. . ... . ... ... ... ... . ... . ... .. .. . ... ... ... ... ............... ... . . ... . . . . ... . . . . . . . . . ... ... .... . . . ... . .............. .... .. . . . . . ... . . . . . . . . . ... ... . . . . ... ... ... . .. ... . . ... ... .... . . . . ..... ..... .. .. .. . . . . . . . . ...... . ... ... . . . . . ...... .. .... ....... ..... ......... . . .... .... .................................. ........ ...................................... ... ........................ .... ............................................................................................................................................ ... ... .. .......................................................................................................................................................................................................................... Ω A1 A2 B → P(A1 ∪ A2 | B) = P((A1 ∪ A2 ) ∩ B) P(B) = P(A1 ∩ B) + P(A2 ∩ B) P(B) = P(A1 ∩ B) P(A2 ∩ B) + P(B) P(B) = P(A1 | B) + P(A2 | B) 1.2 QM1_16 91 P( Ac | B) = 1 − P(A | B) • o n P( · | B) ist W-Maß • etc. etc. P(A ∩ B) = P(A | B) · P(B) • Ist ( B1 , . . . , BJ ) d.Z. von Ω mit P(Bj ) > 0 für alle j und A ⊆ Ω , so gilt P(A) = J X P(A | Bj ) P(Bj ) j=1 „ Satz von der totalen Wahrscheinlichkeit “ o n ( A ∩ B1 , . . . , A ∩ BJ ) ist d.Z. von A : ............................................................................................................................................................................................. ...... .. ... ....... ...... ... ....... ...... ..... ....... ... ...... ....... . . . ...... . . . .... ... .... ...... . . . . . . . ... ... ...... . ................. ...... . . . ... ... ..................... . ...... . . . ... ... ...................... ...... ... ..................... ... ........ ... ..................... .. ... . ... . ... .. . . ... .... ... ................. .... ... ... ... ............. ..... ... ... .......................... ... ... ...... ... ..... ........... ... ..... ... ... ... ..... . . ... ... ..... ... ..... ... ... ... ..... . ... ... ... ..... ... ... ... ..... ..... ... ... ... ..... . ... .. . ................................................................................................................................................................................................... Ω A −→ ........................................................................................................................................................................................... ..... .. ... ..... ..... ... ...... ..... ...... ..... ... ..... ...... . . . ..... . . .... ... .... ..... . . . . . . ... . ..... .................... ................ . ..... . ....................... ... . ................. ..... .................. . ... .. .................. ..... ..... . . . . . . . . . . . ... ................. .... ..... .. ...... . ... .. . . ... .... .. . ......... ... ... .. ........... ....... ... ... ..................... ... ..... .. .... .......... ... .. .... ... ... .. .... ... ... .... .. .... ... ... .. .... ... ... . .... .. ... ... .... .. .... ... ... .. .... ... .. . ................................................................................................................................................................................................ d.Z. von Ω in die Bj → P(A) = J X j=1 4 1.2 P(A ∩ Bj ) = .......................................... . . . . ... . .. .......................... .... ... ..... .. ..... ..... ... ....................... Ω d.Z. von A in die A ∩ Bj J X P(A | Bj ) P(Bj ) j=1 P(A) ist gewichtetes Mittel der bedingten Wn P(A | Bj ) QM1_16 92 ? 2 Würfel − Bj : ‚ 1. Würfel zeigt j ‘ ( j = 1 , . . . , 6 ) − A : ‚ Summe ist ≥ 10 ‘ − 1. Würfel ‚ gezinkt ‘ : P(B1 ) = . . . = P(B5 ) = .1 , P(B6 ) = .5 ? P(A) = ? (B1 , . . . , B6 ) ist d.Z. von Ω = {1, . . . , 6}2 P(A | B1 ) = . . . = P(A | B3 ) = 0 P(A | B4 ) = P(A) = 6 X 1 , 6 P(A | B5 ) = 2 , 6 P(A | B6 ) = 3 6 P(A | Bj ) P(Bj ) j=1 = 0 · (.1) + 0 · (.1) + 0 · (.1) + = 4 1.2 1 2 3 · (.1) + · (.1) + · (.5) 6 6 6 1.8 = .3 6 Vgl. : 6/36 = 1/6 bei fairem 1. Würfel QM1_16 93 • Ist ( B1 , . . . , BJ ) d.Z. von Ω mit P(Bj ) > 0 für alle j und A ⊆ Ω mit P(A) > 0 , so gilt für alle k = 1 , . . . , J P(Bk | A) = P(A | Bk ) P(Bk ) J X P(A | Bj ) P(Bj ) j=1 „ Satz von Bayes “ P(A | Bk ) P(Bk ) P(Bk ∩ A) P(Bk | A) = = J P(A) X P(A | Bj ) P(Bj ) o n j=1 4 Nenner ist P(A) ( totale W. ) 4 Änderung der ‚ a-priori-Wahrscheinlichkeiten ‘ P(Bk ) − ‚ unter Zusatzinformation ‘ A − zu ‚ a-posteriori-Wahrscheinlichkeiten ‘ P(Bk | A) 4 Interessante Frage in der Kognitionspsychologie ? 1.2 Verhalten sich Organismen gemäß Bayesformel ? QM1_16 94 ? 2 Würfel − Bj : ‚ 1. Würfel zeigt j ‘ ( j = 1 , . . . , 6 ) − A : ‚ Summe ist ≥ 10 ‘ − 1. Würfel ‚ gezinkt ‘ : P(B1 ) = . . . = P(B5 ) = .1 , P(B6 ) = .5 ? P(Bk | A) = ? (B1 , . . . , B6 ) ist d.Z. von Ω = {1, . . . , 6}2 P(A | B1 ) = . . . = P(A | B3 ) = 0 1 , 6 P(A | B4 ) = P(A | B5 ) = 2 , 6 P(A | B6 ) = 3 6 P(A) = .3 ? P(B2 | A) = 0 = 0 .3 ? P(B5 | A) = 1 (2/6) (.1) = .3 9 ? P(B6 | A) = (3/6) (.5) 5 = .3 6 B A-posteriori-Wn P(Bk | A) : 0 , 4 Summe ist 1 B Vgl. mit a-priori-Wn ! 4 A-posteriori-Wn bei fairem erstem Würfel : − 1.2 P(Bk | A) : 0, 0, 0, 0, 1 , 6 0, 2 , 6 1 , 18 2 , 18 15 18 3 6 QM1_16 95 → Unabhängigkeit → Motivierung der Definition ? Test auf Krankheit Versuch : − Zufälliges Ziehen eines Probanden aus Gesamtpopulation − A : Diagnose positiv , B : Proband krank → Erwartung an ‚ guten ‘ Test : − Bei Kranken erhöht sich die W. einer positiven Diagnose − im Vergleich zur Gesamtpopulation Formal : P(A | B) > P(A) → Dann besteht ‚ eine Art Abhängigkeit ‘ ( A von B ) Falls P(A | B) = P(A) : → Test ganz unbrauchbar → A ‚ hängt überhaupt nicht von B ab ‘ → Nahliegende Sprechweise : − 1.2 A ist von B unabhängig , falls P(A | B) = P(A) QM1_16 96 ‚ Intuitive ‘ Bedingung für ‚ Unabhängigkeit ‘ ( A von B ) : P(A) = P(A | B) = P(A ∩ B) P(B) Umformung : P(A ∩ B) = P(A) · P(B) ♦ Zwei Ereignisse A und B heißen unabhängig , falls P(A ∩ B) = P(A) · P(B) gilt • Sind A und B unabhängig mit P(B) > 0 , so gilt P(A) = P(A | B) o n P(A | B) = P(A) P(B) P(A ∩ B) = = P(A) P(B) P(B) 4 ( Technische ) Defintion also in Einklang mit Motivation 4 Unabhängigkeit ist ‚ symmetrisch ‘ ! Nicht Unabhängigkeit und Disjunktheit verwechseln ! ! Keine ( allgemein ) falschen Assoziationen ! 1.2 ( Kausalität etc. ) QM1_16 97 ? 2 faire Würfel , A : ‚ 1. Würfel : 3 ‘ , B : ‚ Summe = 7 ‘ ? A , B unabhängig ? P(A) = 1 , 6 P(B) = P(A) · P(B) = → 1 , 6 P(A ∩ B) = 1 36 1 1 1 · = = P(A ∩ B) 6 6 36 A und B sind unabhängig ? 2 faire Würfel , A : ‚ 1. Würfel : 3 ‘ , B : ‚ Summe = 8 ‘ ? A , B unabhängig ? P(A) = 1 , 6 P(B) = P(A) · P(B) = 5 , 36 1 36 1 5 5 1 · = 6= = P(A ∩ B) 6 36 216 36 → A und B sind nicht unabhängig 4 Hier : P(A | B) = 1.2 P(A ∩ B) = 1 1 6= = P(A) 5 6 QM1_16 98 ? 2 faire Würfel , A : ‚ 1. Würfel : < 5 ‘ , B : ‚ 2. Würfel > 3 ‘ ? A , B unabhängig ? P(A) = 4 , 6 P(B) = P(A) · P(B) = 3 , 6 A und B sind unabhängig 4 Hier Sonderfall : ? − 1.2 12 36 12 4 3 · = = P(A ∩ B) 6 6 36 → − P(A ∩ B) = A bezieht sich auf 1. Würfel , B auf 2. Würfel Sind derartige Ereignisse immer unabhängig ? Vermutung : Ja QM1_16 99 • Sind A und B unabhängig , so auch A und B c o n P(A ∩ B c ) = ? .................................................................................................................................................................... ... ... ... ... ... ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . . . . ... . . . ....... ....... .... .... ... ....................... . . . . . . . .... ... . ..... ...... ... ... ... ... ........ ........ . . . . ... ... . . ... . .. .. .. .. .. ...................... . . . . . . . ..................... . . . . .......................... . ... . . . . . . . . . . . . . . . . . . . . . . ... ...................................... .... .... ... .................................... .. . . . . .................... ... ... ... .... ... ... ... ... ................................... ... ... ... ... .... .. ... ... ... ... .... . .. ... ... ... .. .. ... ..................................... ... ... . .. ... ... ... ... ... ... ................................... ... ... . . . ... ... .. .. .. .. ... . . . . ... ... . ..... ... ... ... ... .................................. . . ... ... ... .. .. .. .. .. ....................... .. . ... ... . . ........ ... ... ... ... .... ... . ..... .. .. .. .. ................... . . ... ... . ........ .. .. .. .. ......... ... . . . . . ... ... . . . ............... ............... .............. ............. ... ... ... ... ... ... ... .. ..................................................................................................................................................................... B A ( A ∩ B , A ∩ B c ) ist d.Z. von A P(A) = P(A ∩ B) + P(A ∩ B c ) → P(A ∩ B c ) = P(A) − P(A ∩ B) = P(A) − P(A) · P(B) = P(A) (1 − P(B)) = P(A) · P(B c ) • Sind A , B unabhängig , so auch Ac , B , ebenso Ac , B c o n A , B vertauschen bzw. iterieren 1.2 QM1_16 100 • Sind A und B unabhängig , P(B) > 0 , P(B c ) > 0 , so gilt P(A | B) = P(A) = P(A | B c ) 4 ? Dies zeigt nochmal die Angemessenheit der Begriffsbildung Diagnosebeispiel : A : Diagnose positiv , B : Proband krank Sind A , B unabhängig , so P(A | B) = P(A | B c ) → Test dann in der Tat unbrauchbar → Unabhängigkeit von mehr als 2 Ereignissen ♦ A , B , C heißen unabhängig , falls sie paarweise unabhängig sind und zusätzlich P( A ∩ B ∩ C ) = P(A) · P(B) · P(C) gilt 4 Unabhängigkeit von 3 Ereignissen ist also mehr als paarweise Unabhängigkeit und auch mehr als Gültigkeit von P( A ∩ B ∩ C ) = P(A) · P(B) · P(C) 4 − 1.2 Analog ( immer komplizierter ) : Unabhängigkeit von 4 , 5 , 6 , . . . Ereignissen QM1_16 101 → Zufallsvariable → Oft interessiert bei einem Versuch nicht das genaue Ergebnis − ? → − ? sondern nur ein bestimmter ‚ Aspekt ‘ 2 Würfel , interessant ist vielleicht nur die Augensumme ‚ Erfassen ‘ eines solchen ‚ Aspektes ‘ durch eine geeignete Abbildung 2 Würfel , es interessiert die Augensumme Geeignete Abbildung : X : { 1, 2, 3, 4, 5, 6 }2 → { 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 } X((w1 , w2 )) := w1 + w2 ? X((3, 5)) = 8 Verkürzende Schreibweise : X(3, 5) statt X((3, 5)) − 1.2 Streng genommen unkorrekt , aber praktisch QM1_16 102 ? 2 Würfel , interessant ist jetzt der 1. Würfel Geeignete Abbildung : X1 : { 1, 2, 3, 4, 5, 6 }2 → { 1, 2, 3, 4, 5, 6 } X1 (w1 , w2 ) := w1 ? Oder : interessant ist der 2. Würfel Geeignete Abbildung : X2 : { 1, 2, 3, 4, 5, 6 }2 → { 1, 2, 3, 4, 5, 6 } X2 (w1 , w2 ) := w2 4 − Für viele Zwecke praktischer : Als Wertebereich von X1 , X2 , X gleich R nehmen Hier gilt übrigens : X = X1 + X2 B Summe von Abbildungen ist wieder Abbildung Formale Definition : ♦ Sind X1 und X2 Abbildungen auf Ω mit Werten in den reellen Zahlen , so ist X1 + X2 die Abbildung auf Ω , die gegeben ist durch (X1 + X2 )(ω) := X1 (ω) + X2 (ω) 4 1.2 Analog : Differenz , Produkt , X12 , etc. etc. QM1_16 103 ? − 4 − Population Ω von Männern und Frauen Zufälliges Ziehen einer Person Elementarbaustein des Stichprobenziehens Interessant ist vielleicht die Intelligenz der gezogenen Person Geeignete Abbildung : − ? − Person 7→ IQ X( Julius ) = 117 Interessant ist jetzt das Geschlecht der gezogenen Person Geeignete Abbildung : − ? B X : Ω → R Y : Ω → { m, w } Person 7→ Geschlecht Y ( Petra ) = w Vorteil derartiger Abbildungen − Erfassung der relevanten Information − bei Ignorierung der irrelevanten 1.2 QM1_16 104 → Urbild ♦ Ist X : Ω → Ω0 eine Abbildung und A ⊆ Ω0 , so heißt die Menge X −1 (A) := { ω ∈ Ω | X(ω) ∈ A } das Urbild von A unter X ? 2 Würfel , X : {1, 2, 3, 4, 5, 6}2 → R : Augensumme ? A = { 10, 11, 12 } ‚ Augensumme ≥ 10 ‘ X −1 (A) gibt Antwort auf die Frage : − Welche Ergebnisse führen zu Augensummen ≥ 10 ? X −1 (A) = { (4, 6) , (5, 5) , (5, 6) , (6, 4) , (6, 5) , (6, 6) } ? − ? Zufälliges Ziehen einer Person aus Population Ω X : Intelligenz A = (100, ∞) ‚ überdurchschnittlich ‘ X −1 (A) gibt Antwort auf die Frage : − Welche Personen sind überdurchschnittlich intelligent ? X −1 (A) vielleicht : { Julius, Olga, Maria, Fritz, . . . } 1.2 QM1_16 105 ? 2 faire Würfel , X : {1, 2, 3, 4, 5, 6}2 → R : Augensumme ? A = { 10, 11, 12 } ? Wie wahrscheinlich ist eine Augensumme in A ? ( also ≥ 10 ) → ‚ Augensumme ≥ 10 ‘ Lösungsweg : Umformulierung : Welche Ergebnisse führen zu Summe ≥ 10 ? Antwort : (4, 6) , (5, 5) , (5, 6) , (6, 4) , (6, 5) , (6, 6) Also die Elemente von X −1 (A) Es sind also folgende Ereignisse gleich : − ‚ Augensumme X liegt in A ‘ − X −1 (A) Daher ist die W. einer Augensumme in A gleich P(X −1 (A)) 1 6 = 36 6 → Lösung also : Die gesuchte W. ist P(X −1 (A)) = B Entscheidend : das interessierende Ereignis ist X −1 (A) − 1.2 Davon ist die W. zu bestimmen P(X −1 (A)) QM1_16 106 ♦ Ist < Ω, P > ( endlicher ) W-Raum und X : Ω → Ω0 eine Funktion mit Werten in einer Menge Ω0 , so heißt X auch Zufallsvariable ( auf Ω ) Abkürzung : Zva 4 Zvan ‚ erfassen ‘ ‚ relevante Aspekte ‘ eines Zufallsergebnisses B Zufällig ist das Ergebnis ω , X( ω ) dann aber nicht mehr → Wn von Ereignissen , die sich auf eine Zva beziehen ? Form solcher Ereignisse genauer : Gegeben ist ein A ⊆ Ω0 → Ereignis dann : Der Wert von X liegt in A Bezeichnung für dieses Ereignis : ‚ X ∈ A ‘ Bezeichnung der Wahrscheinlichkeit : P(X ∈ A) P(X ∈ A) = P(X −1 (A)) • Weitere Schreibweisen : ‚ X ≥ 10 ‘ : Ereignis , dass X mindestens 10 ist P(X ≥ 10) : W. davon → 1.2 Etc. etc. QM1_16 107 → Verteilung einer Zva • Ist < Ω , P > (endlicher) W-Raum und X : Ω → Ω0 eine Zva mit Werten in einer endlichen Menge Ω0 , so ist die durch die Vorschrift PX (A) := P(X −1 (A)) für A ⊆ Ω0 auf P(Ω0 ) definierte Funktion PX ein W-Maß auf Ω0 o n Nachprüfen der Axiome B PX (A) ist die W., dass X einen Wert in A annimmt ♦ Das W-Maß PX heißt auch Bildmaß von P ( unter X ) oder auch Verteilung von X Charakterisierung wie üblich durch die W-Funktion ♦ Die zu PX gehörende W-Funktion heißt auch W-Funktion von X 1.2 Bezeichnung meist : fX QM1_16 108 → Eigenschaften der W-Funktion von X 4 Ω0 erstmal immer endlich • Ist < Ω , P > (endlicher) W-Raum mit W-Funktion f und X : Ω → Ω0 Zva mit W-Funktion fX : Ω0 → R , so gilt X fX (x) = f (ω) ω∈Ω X(ω)=x für alle x ∈ Ω0 o n fX (x) = PX ({x}) = P(X −1 ({x})) und X −1 ({x}) = { ω ∈ Ω | X(ω) ∈ {x}} = { ω ∈ Ω | X(ω) = x} • Ist fX die W-Funktion einer Zva X : Ω → Ω0 , so gilt für alle A ⊆ Ω0 die Beziehung X PX (A) = fX (x) x∈A o n 1.2 fX ist W-Funktion QM1_16 109 ? − Gegeben : Population Ω = { a, b, c, d, e, f, g, h } Interessant : Verteilung der Zva X : Augenfarbe Ω0 = { b, hb, db, hg, dg } − braun , hell/dunkel-blau/grün Ungleiche Ziehungswahrscheinlichkeiten − W-Maß P auf Ω gegeben durch W-Funktion f ω f (ω) X(ω) a .20 hb b .15 dg c .05 b hg d .10 e .15 b f .10 db g .10 hg dg h .15 → Bestimme PX über fX ! fX (b) = X f (ω) = f (c) + f (e) = .05 + .15 = .20 ω∈Ω X(ω)=b fX (hb) = X f (ω) = f (a) = .20 ω∈Ω X(ω)=hb fX (db) = f (f ) = .10 fX (hg) = f (d) + f (g) = .10 + .10 = .20 fX (dg) = f (b) + f (h) = .15 + .15 = .30 1.2 QM1_16 110 Zusammenfassung der Werte von fX x fX (x) b .20 hb .20 db .10 hg .20 dg .30 Veranschaulichung der W-Funktion fX fX (x) 0.3 0.2 0.1 ? H := { hb, hg } PX (H) = X ....... .......... ... .... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. r r r ... ... .. ... ... ... ... ... ... .... .. .. ... ... .. ... ... ... ... ... ... .... .. .. b hb r r .... ... .. ... ... .. ... ... .. ... ... ... ... ... ... .... .. .. .. ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. db hg dg x ‚ Helle Augenfarbe ‘ fX (x) = fX (hb) + fX (hg) = .20 + .20 = .40 x∈H 4 Natürlich gleiches Resultat mit PX (H) = P(X −1 (H)) : X −1 (H) = { a, d, g } → 1.2 P({ a, d, g }) = f (a) + f (d) + f (g) = .20 + .10 + .10 = .40 QM1_16 111 ? Verteilung der Augensumme von 2 fairen Würfeln Ω = { 1, 2, 3, 4, 5, 6 }2 P : Gleichverteilung , also f (ω) = 1/36 für alle ω Zva : X : Ω → Ω0 = { 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 } − X(w1 , w2 ) = w1 + w2 → Bestimme PX über fX ? fX ( 4 ) = f (1, 3) + f (2, 2) + f (3, 1) = → 1 1 3 1 + + = 36 36 36 36 Insgesamt : x 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 5 4 3 2 1 fX (x) 36 36 36 36 36 36 36 36 36 36 36 → Veranschaulichung : . ........ .......... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... ... . ... .. ... ... . ... .. ... ... . ... .. . ... ... . . .. .. ... ... . . .. .. . ... ... . . ... . .. .. .. ... ... . . ... . .. .. .. ... ... . . ... . . .. .. .. ... . . . ... . .. .. .. .. ... . ... . . . .. .. .. .. ... ... ... . ... . . . .. .. .. .. ... ... ... . ... . . . .. .. .. .. ... ... ... . ... . . . .. . .. .. .. ... ... ... . . . . . . .. .. .. .. .. ... ... . . . . . . .. .. .. .. .. ... .... .... ... .... . . . . . . .. .. .. .. .. ... ... ... ... . . . . . . .. .. .. .. .. .. ... ... ... ... . . . . . . . .. .. .. .. .. .. ... ... ... . . . . . . . . .. .. .. .. .. .. .. ... ... . . . . . . . . .. .. .. .. .. .. .. .. ... .... ... . . . . . . . . ..... .. .. .. .. .. .. .. .. ... .. ... ... . . . . . . . . .. .. .. .. .. .. .. .. ... ... ... ... . . . . . . . . . . .. .. .. .. .. .. .. .. ... .. . . . . . . . . . . .......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ..... fX (x) 5/36 r r r r r r r r 1/36 0 r 1 1.2 r 2 r 3 4 5 6 7 8 9 10 11 12 QM1_16 x 112 Verteilung der Augensumme X über die W-Funktion fX : x 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 5 4 3 2 1 fX (x) 36 36 36 36 36 36 36 36 36 36 36 ? Wahrscheinlichkeit einer geraden Augensumme = ? Mit G = { 2, 4, 6, 8, 10, 12 } : − W. für gerade Augensumme = PX (G) PX (G) = X fX (x) x∈G = fX (2) + fX (4) + fX (6) + fX (8) + fX (10) + fX (12) = = ? 3 5 1 + + 36 36 36 18 1 = 36 2 + 5 + 36 3 36 + 1 36 W. einer ungeraden Augensumme ? Gegenereignis zu ‚ gerade Augensumme ‘ → 1.2 W. für ungerade Augensumme = 1 − 1 1 = 2 2 QM1_16 113 → ? Verallgemeinerung : Ω0 unendlich Würfelsumme als Funktion mit Werten in R Fast alles kann so bleiben PX ( genauso definiert ) erweist sich als W-Maß Die Ereignisse in Ω0 sind alle Teilmengen von Ω0 W-Funktion fX genauso definiert Bestimmung der W. eines Ereignisses E ( in Ω0 ) : PX (E) = X fX (x) x∈E ! → − Bei unendlichem E : unendliche Summe , nicht definiert Sondervereinbarung für diese spezielle Situation : Es sind nur die x mit fX (x) 6= 0 zu berücksichtigen → Dann funktioniert alles B Wesentlich : Ω ist endlich 1.2 QM1_16 114 ? − Verteilung der Augensumme X von 2 fairen Würfeln Jetzt : X : Ω → R W-Funktion fX : − für x = 2, 3, . . . , 12 : fX (x) wie oben − für alle anderen x : fX (x) = 0 ? − 4 → PX ( ( −1, 3.7 ] ) = ? Augensumme zwischen −1 (aus-) und 3.7 (einschließlich) Seltsame Frage , aber manchmal sinnvoll PX ( ( −1, 3.7 ] ) = X fX (x) x∈( −1, 3.7 ] = fX (2) + fX (3) = Andere x ( z.B. −.3 , 1.2 √ 1 36 + 2 36 = 3 36 2 , π ) werden nicht berücksichtigt QM1_16 115 → Erinnerung : Monotone Funktionen etc. ♦ Ist A ⊆ R und f : A → R , so heißt f monoton wachsend , falls für alle x1 , x2 ∈ A mit x1 < x2 die Beziehung f (x1 ) ≤ f (x2 ) gilt ♦ Ist A ⊆ R und f : A → R , so heißt f streng monoton wachsend , falls für alle x1 , x2 ∈ A mit x1 < x2 die Beziehung f (x1 ) < f (x2 ) gilt 4 Die Funktionswerte wachsen mit dem Argument ( ‚ streng ‘ ) bzw. werden jedenfalls nicht kleiner 4 ? Analog : ‚ monoton fallend ‘ und ‚ streng monoton fallend ‘ Beispiele . ... ...... ... ......... .. .. ... . ... . . ... ... ... ... ... ... ... . ... . .. ... ... ... ... ... ... ... . ... . ... ..... ... .... ......... ... ....... . . . .. ... . . . . ... ... . . . . ..... .... ..... .. ..... ..................................................................................... ..... ..... . . . . ... . . . . . . ...... ...... ....... ....... ........ ..... . ..... ...... ..... ......... ..... .. ..... ... ..... ..... ... ..... ... ..... ..... ... ....................... . ...... ... ...... .. ....... .............. ... ........ ...... ... ...... ... ...... ...... ... ............. ... ... ... ... ... ... ... ... ... ... ... .... . ...................................................................................... ... ... ... ... ... ... ... .. − Links : Streng monoton wachsend − Mitte : Monoton fallend, aber nicht streng − Rechts : Weder noch noch noch 1.2 . ...... ......... .. ... ... ... ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ............ .... . ........ . . . . . . . . . . . . . ........ . . . . ... ........... . ...... ... ...... . ...... . ... ....... ... ... . . ... . ... ... ... ... . ......... ... . ...... ... ..... . ... ..... . ... . .... ......................................................................................... ..... . ..... . . . r − Ferner : ‚ Sprungstelle ‘ , Funktionswert : Dicker Punkt − In ‚ Sprungstelle ‘ ‚ rechtsseitig stetig ‘ QM1_16 116 → Verteilungsfunktion ♦ Eine Zva mit Werten in R heißt auch reelle Zva ? Würfelsumme ♦ Ist < Ω, P > W-Raum und X reelle Zva auf Ω , so heißt die Funktion FX : R → R mit FX (x) := P( X ≤ x ) auch Verteilungsfunktion von X In zweifelsfreien Fällen meist ‚ F ‘ statt ‚ FX ‘ 4 Die Funktionswerte von FX liegen natürlich alle in [ 0, 1 ] 4 FX (x) = P(X ≤ x) = PX ( (−∞, x ] ) = X fX (x0 ) x0 ≤x ? Zva X : Augensumme von 2 fairen Würfeln ? Verteilungsfunktion FX von X ? 1.2 QM1_16 117 ? FX für Zva X : Augensumme von 2 Würfeln ? Erinnerung : W-Funktion : .. ........ ....... .... ... ... ... . ... .... ... ... ... ... ... ... . . ... .... .... ... . ... ... . ... .. ... ... . ... .. . ... ... . . .. . .. .. .. ... ... . . ... . .. .. .. ... ... . . ... . . .. .. .. ... . . . ... . .. .. .. .. ... . . . .. . ... . .. .. .. .. .. ... . . . ... . ... . .. .. .. .. ... ... . . . ... . ... . . .. .. .. .. . ... . . . . ... . . .. .. .. .. .. .. ... . . . . . ... . .. . .. .. .. .. .. .. .. ... . . . . . ... . ... . .. .. .. .. .. .. .. ... . . . . . ... . ... . .. .. .. .. .. . .. ... ... . . . . . . . ... . . .. .. .. .. .. .. .. ... . . . . . . . . .. . .... .. .. .. .. .. .. .. .. .. ... .. . . . . . . . . ... . .. .. .. .. .. .. .. .. ... ... ... . . . . . . . . .... . .... . ... ... .... .... .... .... .... .... .... .... ........................................................................................................................................................................................................................................................................................................................................................................... fX (x) 5/36 r r r r r r 1/36 0 ? r r r r r 1 2 3 4 5 6 7 8 9 10 11 12 x FX (−2) = FX (.5) = FX (1.7) = 0 keine Änderung bis x = 2 ? FX (2) = 1/36 Sprung um fX (2) = P(X = 2) √ FX (2.3) = FX ( 5) = FX (2.8395) = 1/36 keine Änderung mehr bis x = 3 FX (3) = 3/36 Sprung um fX (3) = P(X = 3) ... → FX bleibt konstant zwischen möglichen Werten von X → In möglichen Werten x von X : Sprung um fX (x) ... → 1.2 Schließlich für x ≥ 12 : FX ist konstant ( 1 ) QM1_16 118 → Verteilungsfunktion und W-Funktion von X : Augensumme FX (x) 36/36 30/36 25/36 20/36 15/36 10/36 5/36 1/36 ....... .......... ... .... .. ... ... ... ...................................................................................................................................................... ......................................................... ... .. ............................. ... ... ............................. ... ... ... ... ............................. .... .. ... ... ............................. ... .... ... .. ... ... ............................. ... ... ... .. ... ... ... ............................. ... ... ... .. .. ... .. ... .............................. ... .. ... ... ... .. ... ... ............................... ... .. ... ... ... .. ............................. ... .. ... . ... ............................. ..................................................................................................................................................................................................................................................................................................................................................................................................................................... .. ...... .. .. .. .. .. .. .. .. . ......... .. . ..... . .. .. .... .. ... .. ... .. ... ... .. ... ... .. .. ... ... .. .. ... ... . . ... ... ... . . ... . .. .. .. . ... . .... . ... . ... .. .. .. .. . . ... .... .... . ... . ... . . .... ... ... .. ... .. .... .. .... .. .... .... ................................................................................................................................................................................................................................................................................................................................................................................................................................... .. .. .. . r r r r r r r r r 1 fX (x) 5/36 1/36 1 4 r 2 r 3 4 5 6 7 8 r r r r r r r 2 3 4 5 6 7 8 9 10 11 12 r r r x r 9 10 11 12 x fX (x) liefert die Sprunggröße von FX in x Funktionswerte von fX und FX in den ‚ Sprungstellen ‘ : 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 5 4 3 fX (x) 36 36 36 36 36 36 36 36 36 1 3 6 10 15 21 26 30 33 FX (x) 36 36 36 36 36 36 36 36 36 x B − 1.2 11 2 36 35 36 12 1 36 36 36 Den Wert von FX in x erhält man durch Aufaddieren der Werte von fX bis x QM1_16 119 → Eigenschaften der Verteilungsfunktion • Aus der Verteilungsfunktion FX lässt sich die Verteilung von X eindeutig bestimmen o n Die Sprungstellen liefern hier die W-Funktion • Die Verteilungsfunktion F einer reellen Zva hat folgende Eigenschaften : (i) F ist monoton wachsend (ii) F (x) → 0 für x → −∞ F (x) → 1 für x → ∞ (iii) F ist in allen Punkten x rechtsseitig stetig o n Für die bisher betrachtete Art von Zvan klar 4 Die Eigenschaften gelten allgemein für reelle Zvan 4 Jede Funktion F mit (i) − (iii) ist Verteilungsfunktion einer reellen Zva → Mit den Funktionen F mit (i) − (iii) hat man einen vollständigen Überblick über mögliche reelle Verteilungen 1.2 QM1_16 120 4 Verteilungsfunktionen sind weniger anschaulich als W-Funktionen − Dafür ‚ universeller ‘ − Auch bei ‚ stetigen ‘ Zvan definiert ( nicht nur bei ‚ diskreten ‘ ) − Vergleich unterschiedlicher Arten von Verteilungen wird möglich → Bestimmung von Wn von Intervallen der Form (a, b ] • Ist F die Verteilungsfunktion einer reellen Zva X , so gilt für alle a , b ∈ R mit a < b die Beziehung P(a < X ≤ b) = F (b) − F (a) o n Die Ereignisse ‚ a < X ≤ b ‘ und ‚ X ≤ a ‘ sind disjunkt Ihre Vereinigung ist das Ereignis ‚ X ≤ b ‘ P(X ≤ b) = P(a < X ≤ b) + P(X ≤ a) → P(a < X ≤ b) = P(X ≤ b) − P(X ≤ a) = F (b) − F (a) 4 ? → P(a < X ≤ b) = PX ( (a, b ] ) 2 Würfel , X : Augensumme P( 3.3 < X ≤ 7.1 ) = FX (7.1) − FX (3.3) = 1.2 21 3 18 1 − = = 36 36 36 2 QM1_16 121 → Motivierung der Begriffe Abhängigkeit / Unabhängigkeit Oft sind zwei Variablen gleichzeitig interessant − Besonders bei Fragen nach ‚ Zusammenhängen ‘ ? Gibt es Zusammenhang zwischen Geschlecht und Intelligenz ? ? Gibt es Zusammenhang zwischen Augen- und Haarfarbe ? → Hier : Simultane Betrachtung beider Variablen nötig ? Was soll hier ‚ Zusammenhang ‘ heißen ? ? Vereinfachtes Beispiel : Geschlecht (G) - Intelligenz (I) Intelligenz in nur zwei Stufen : − → i (ntelligent) und u (nintelligent) Vergleiche 2 mögliche Situationen S1 , S2 − S1 : Männer : 40% i , 60% u , Frauen : 40% i , 60% u − S2 : Männer : 40% i , 60% u , Frauen : 45% i , 55% u → S1 : Verteilung von I ist bei Männern und Frauen gleich → S2 : Verteilung von I ist bei Männern und Frauen verschieden 1.2 QM1_16 122 2 mögliche Situationen S1 , S2 − S1 : Männer : 40% i , 60% u , Frauen : 40% i , 60% u − S2 : Männer : 40% i , 60% u , Frauen : 45% i , 55% u ♠ ‚ Statistische ‘ Sichtweise : − In S1 besteht kein Zusammenhang zwischen G und I − In S2 besteht ein Zusammenhang zwischen G und I → Kriterium : Sind die Verteilungen von I gleich ? → Eigentlich : Rollen von G und I unsymmetrisch Daher vielleicht besser : − In S1 hängt I nicht von G ab − In S2 hängt I von G ab → Eine Art ‚ Präzisierung ‘ von „ Abhängigkeit “ − Nicht vollständig im Einklang mit Umgangssprache ! − Betrifft nur den ‚ statistischen ‘ Aspekt der Verteilung 1.2 QM1_16 123 Zum ‚ schillernden ‘ Abhängigkeitsbegriff : Denkbare Situation : − Verschiedene Arten der Intelligenzentwicklung bei M und F − Jedoch mit gleichem Resultat ( im Sinne der Verteilung ) 4 Nicht gerade „ wahrscheinlich “ , aber nicht unmöglich ? ‚ Hängt ‘ dann I von G ‚ ab ‘ oder nicht ? ? Vielleicht ‚ Abhängigkeit ‘ , aber ‚ letztlich die gleiche ‘ ? ? ??? → Hier in Zukunft : ‚ Statistischer ‘ Abhängigkeitsbegriff B Offenbar nicht identisch mit umgangssprachlichem ! Vermeidung von unsinnigen Konfusionen durch → Bewusstheit und disziplinierten Sprachgebrauch ! → Vermeidung von zügellosen sprachlichen Assoziationen ! → Insbesondere : − 1.2 Vorschnelle ‚ kausale ‘ Assoziationen vermeiden ! QM1_16 124 → ? Noch eine Frage : Kann es sein , dass ( im ‚ statistischen ‘ Sinn ) − I von G unabhängig ist − G von I jedoch nicht ? Also : Ist folgendes möglich : − Verteilungen von I bei Männern und Frauen gleich − Verteilungen von G bei Unintelligenten und Intelligenten nicht ? − Konkretes Beispiel : Könnte etwa folgendes sein : Männer : 40% i , 60% u , Frauen : 40% i , 60% u − Unintelligente : 55% M , 45% F , Intelligente : 54% M , 46% F ? → 1.2 Ist dieser Abhängigkeitsbegriff also ‚ symmetrisch ‘ oder nicht ? QM1_16 125 → Gemeinsame Verteilung von Zvan ♣ Gegeben : Zwei Zvan X , Y auf einem W-Raum < Ω, P > ? Beispiel : Ω kleine Population ? X : Geschlecht , Y : Haarfarbe → Betrachte beide Variablen ‚ gleichzeitig ‘ → Aus Zwei mach Eins ! ♦ Sind X , Y Zvan auf < Ω, P > mit Werten in Ω0 bzw. Ω00 , so ist die Zva (X, Y ) : Ω → Ω0 × Ω00 definiert durch (X, Y )(ω) := (X(ω), Y (ω)) ♦ Die Verteilung von (X, Y ) heißt auch gemeinsame Verteilung von X und Y 4 1.2 Analog für mehr als zwei Zvan QM1_16 126 ? Gegeben : Population Ω = { a, b, c, d, e, f, g, h, i, j } − Interessant : X : Geschlecht , Y : Haarfarbe Werte von X in Ω0 = { m, w } Werte von Y in Ω00 = { b, r, s } − blond , rot , schwarz Ungleiche Ziehungswahrscheinlichkeiten − W-Maß P auf Ω gegeben durch W-Funktion f Ausgangssituation , zusätzlich Werte von (X, Y ) : ω f (ω) X(ω) Y (ω) (X, Y )(ω) a .10 m b (m, b) b .20 w b (w, b) w s (w, s) c .10 d .05 m s (m, s) e .20 w s (w, s) f .10 w b (w, b) g .05 w r (w, r) h .05 m r (m, r) m s (m, s) i .05 j .10 w b (w, b) 1.2 QM1_16 127 Ausgangsituation ω f (ω) X(ω) Y (ω) (X, Y )(ω) a .10 m b (m, b) b .20 w b (w, b) c .10 w s (w, s) d .05 m s (m, s) e .20 w s (w, s) f .10 w b (w, b) g .05 w r (w, r) m r (m, r) h .05 i .05 m s (m, s) w b (w, b) j .10 Verteilungen von X , Y über die W-Funktionen fX , fY : y b r s fY (y) .5 .1 .4 x m w fX (x) .25 .75 1 .5 0 r .... ... . . .... ... .. ... ... ... ... .. m w r x 1 .5 0 r r ... ... .. ... ... .. .. .. .. ... .. ... .. b r s r y Verteilung von (X, Y ) ( Gemeinsame Verteilung von X , Y ) W-Funktion von (X, Y ) : f(X,Y ) oder kurz : fX,Y Anordnung der Werte von fX,Y in passender Tabelle : r s x\y b m .10 .05 .10 w .40 .05 .30 1.2 QM1_16 128 Anordnung der Werte von fX,Y in passender Tabelle : x\y b r s m .10 .05 .10 w .40 .05 .30 Solche Tabellen heißen Kontingenztafeln oder Kreuztabellen Bildung der Randsummen ( selbsterklärend ) x\y b r s m .10 .05 .10 .25 w .40 .05 .30 .75 .50 .10 .40 1 B Die Randsummen sind die W-Funktionen von X und Y : ‚ X = m ‘ setzt sich zusammen aus − ‚ X = m , Y = b ‘, ‚ X = m , Y = r ‘, ‚ X = m , Y = s ‘ Diese Ereignisse sind disjunkt → 1.2 fX (m) = fX,Y (m, b) + fX,Y (m, r) + fX,Y (m, s) Dabei : ‚ X = m , Y = b ‘ : ‚ X = m ‘ und ‚ Y = b ‘ etc. QM1_16 129 → Allgemeine Bezeichnungen bei Kontingenztafeln ♣ Allgemeine Situation : − X , Y sind Zvan auf Ω mit Werten in Ω0 , Ω00 − Ω0 = { x1 , x2 , . . . , xI } , Ω00 = { y1 , y2 , . . . , yJ } P(X = xi , Y = yj ) = fX,Y (xi , yj ) := pi,j Statt pi,j auch pij → falls Missverständisse ausgeschlossen Kontingenztafel dann x\y x1 x2 .. . xI y1 p11 p21 .. . pI1 y2 p12 p22 .. . pI2 . . . yJ . . . p1J . . . p2J .. . . . . pIJ 4 Die eigentliche Tafel hat I Zeilen und J Spalten Indizierung der Elemente : Reihenfolge Zeile - Spalte Bezeichnung der Randsummen : pi. := J X j=1 pij p.j := I X pij i=1 B Summe der i-ten Zeile bzw. der j-ten Spalte 4 Der Punkt zeigt , über welchen Index summiert wird 1.2 QM1_16 130 Kontingenztafel allgemein mit Randsummen : x\y x1 x2 .. . xI y1 p11 p21 .. . pI1 p.1 y2 p12 p22 .. . pI2 p.2 . . . yJ . . . p1J p1. . . . p2J p2. .. .. . . . . . pIJ pI . . . . p.J 1 B pi. = fX (xi ) = P(X = xi ) B p.j = fY (yj ) = P(Y = yj ) − 1.2 p1. , p2. , . . . , pI . heißt auch oft Randverteilung ( von X ) nicht ganz korrekt , aber suggestiv Entsprechend p.1 , p.2 , . . . , p.J : Randverteilung ( von Y ) QM1_16 131 → Bedingte Verteilungen ♣ Voraussetzung jetzt zunächst immer : − 4 − B Alle pi. und alle p.j sind 6= 0 Alle Werte xi von X sollen also W. 6= 0 haben Alle Werte yj von Y ebenso Sonst : die Werte mit W. 0 weglassen P(X = xi | Y = yj ) = Für jedes j erfüllt xi 7→ − pij P(X = xi , Y = yj ) = P(Y = yj ) p.j pij die W-Funktions-Bedingungen p.j Funktionswerte sind ≥ 0 , ihre Summe ist 1 ♦ Das für ein festes j durch die W-Funktion xi 7→ pij p.j definierte W-Maß auf Ω0 heißt auch die bedingte Verteilung von X unter Y = yj 4 Dies ist übrigens das Bildmaß von P( · | Y = yj ) unter X 4 Ganz analog : Definition der bedingten Verteilungen von Y unter X = xi für alle i 1.2 QM1_16 132 ? Bedingte Verteilungen im Beispiel : Kontingenztafel : x\y b r s m .10 .05 .10 .25 w .40 .05 .30 .75 .50 .10 .40 1 ? Bedingte Verteilung von X unter Y = b ? → ? W-Funktion : m 7→ .1/.5 = .2 , w 7→ .4/.5 = .8 Bedingte Verteilung von Y unter X = m ? → W-Funktion : b 7→ .4 , → Veranschaulichung der bedingten Verteilungen : − 1 .5 0 − s 7→ .4 Bedingte Verteilungen von X unter Y = b , r , s : 1 .5 0 r .... .. . .... ... .. ... ... ... ... .... . m w r x r 1 .5 0 r ..... ... .. ... .... . ..... ... .. ... .... . m w x r . .... ... . .. ... .. ... ... ... ... .... . m w r x Bedingte Verteilungen von Y unter X = m , w : 1 .5 0 1.2 r 7→ .2 , r r .... ... .. ... . ... ... . .... ... .. ... . b r s r y 1 .5 0 r r .. ... .. ... ... ... . .. . .... ... .. ... . b r s r y QM1_16 133 → − 1 .5 0 − Bedingte Verteilungen : Bedingte Verteilungen von X unter Y = b , r , s : .. ... . m w r x r 1 .5 0 r ... ... .. ... ... .. ... ... .. ... ... .. m w x r .... ... . .. ... .. ... ... ... ... ... .. m w r r r ... ... .. ... .. .. ... . ... ... .. ... .. b r s r y 1 .5 0 r r .... ... .. ... ... .. ... ... ... .. ... .. b r s r y Vergleich der bedingten Verteilungen : − Die bedingten Verteilungen von X sind nicht alle gleich − Die bedingten Verteilungen von Y sind nicht alle gleich ? − 1.2 x Bedingte Verteilungen von Y unter X = m , w : 1 .5 0 B 1 .5 0 r ... ... .. ... ... ... ... ... .. Hätte es auch anders sein können ? Einmal Gleichheit , einmal nicht ? QM1_16 134 ? Nochmal das gleiche Beispiel , nur mit verändertem P Ausgangsituation ω a b c d e f g h i j f (ω) X(ω) Y (ω) (X, Y )(ω) .125 m b (m, b) .100 w b (w, b) .125 w s (w, s) .060 m s (m, s) .175 w s (w, s) .125 w b (w, b) .075 w r (w, r) .025 m r (m, r) .040 m s (m, s) .150 w b (w, b) Kontingenztafel : x\y b r s m .125 .025 .100 .250 w .375 .075 .300 .750 .500 .100 .400 1 Verteilungen von X , Y : 1 .5 0 1.2 r .. ... .. . ... ... .. ... ... ... ... ... . m w r x 1 .5 0 r r .... ... .. ... ... . ... . .... ... .. ... . b r s r y QM1_16 135 Kontingenztafel : x\y b r s m .125 .025 .100 .250 w .375 .075 .300 .750 .500 .100 .400 1 − 1 .5 0 − Bedingte Verteilungen von X unter Y = b , r , s : 1 .5 0 r . .... ... . .. ... .. ... ... ... ... .... . m w r x 1 .5 0 r . .... ... . .. ... .. ... ... ... ... .... . m w r x r . .... ... . .. ... .. ... ... ... ... .... . m w r Bedingte Verteilungen von Y unter X = m , w : 1 .5 0 r r .... ... .. .... .. . ... . .... ... .. ... . b r s r y 1 .5 0 r r .... ... .. .... .. . ... . .... ... .. ... . b r s r 4 Jetzt : Jeweilige bedingte Verteilungen alle gleich B Übrigens : Auch gleich der jeweiligen Randverteilung ? Zufall ? B Bemerkenswert hier : − 1.2 x y Die pij sind die Produkte der Randsummen QM1_16 136 → Motivierung der Definition für Unabhängigkeit Vorläufiger ( statistischer ) Unabhängigkeitsbegriff : Y ist von X ‚ unabhängig ‘ , falls die bedingten Verteilungen von Y unter X = xi alle gleich sind ( i = 1 , . . . , I ) Entsprechend umgekehrt ( X von Y ) → Schlussfolgerungen ? • Sind die bedingten Verteilungen von Y unter X = xi alle gleich , so gilt für alle i, j die Beziehung pij = pi. p.j Für jedes j sind alle P( Y = yj | X = xi ) gleich : o n p2j pIj p1j = = ... = =: p̃j p1. p2. pI . Randsumme X X X p.j = pij = p̃j pi. = p̃j pi. = p̃j i → i Für jedes i gilt pij = p̃j pi. = p.j pi. B 1.2 i Umgekehrt mutatis mutandis genauso QM1_16 137 → Definition der Unabhängigkeit von Zvan ♦ Zwei Zvan X , Y auf einem endlichen W-Raum heißen unabhängig , falls in der zugehörigen Kontingenztafel für alle i und j die folgende Beziehung gilt : pij = pi. p.j − ? Griffige Ausdrucksweise : Gemeinsame Verteilung ist Produkt der Randverteilungen Beispiel : r s x\y b m .125 .025 .100 .250 w .375 .075 .300 .750 .500 .100 .400 1 4 Voraussetzung pi. 6= 0 , p.j 6= 0 für alle i, j entfällt 4 Definition ist symmetrisch in X , Y ? 1.2 Ist Definition Abschwächung des vorläufigen Begriffs ? QM1_16 138 • Sind X und Y unabhängige Zvan auf endlichem W-Raum , und sind alle pi. = P(X = xi ) nicht 0 , so sind die bedingten Verteilungen von Y unter X = xi alle gleich und außerdem gleich der Randverteilung von Y 4 pi. 6= 0 , damit bedingte Wn überhaupt definiert sind o n Es gilt für alle j : P(Y = yj | X = xi ) = pi. p.j pij = = p.j pi. pi. 4 Analog umgekehrt B Technische Definition also in Einklang mit Intuition 4 Es folgt jetzt auch : − → Ist Y von X ‚ unabhängig ‘ , so auch X von Y Alternativformulierungen für Unabhängigkeitsbedingung : − Für alle x ∈ Ω0 und y ∈ Ω00 gilt P(X = x, Y = y) = P(X = x) · P(Y = y) − Für alle x ∈ Ω0 und y ∈ Ω00 gilt fX,Y (x, y) = fX (x) · fY (y) 1.2 QM1_16 139 → Multiplikativität bei Ereignissen • Sind X : Ω → Ω0 und Y : Ω → Ω00 unabhängig , so gilt für alle A ⊆ Ω0 und B ⊆ Ω00 die Beziehung P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ B) X ∈ A und Y ∈ B ⇔ (X, Y ) ∈ A × B o n → P(X ∈ A, Y ∈ B) = P((X, Y ) ∈ A × B) X = fX,Y (x, y) (x,y)∈A×B = XX fX (x) · fY (y) x∈A y∈B = ! X X fX (x) · fY (y) x∈A y∈B = P(X ∈ A) · P(Y ∈ B) ⇔ : genau dann, wenn Praktische Sprechweise : ‚ X ∈ A ‘ : ‚ X-Ereignis ‘ etc. B Satz dann : − Sind X und Y unabhängig , so sind auch ‚ X-Ereignisse ‘ und ‚ Y -Ereignisse ‘ unabhängig 1.2 QM1_16 140 → Umkehrung • Sind X : Ω → Ω0 und Y : Ω → Ω00 Zvan , und gilt für alle A ⊆ Ω0 und B ⊆ Ω00 die Beziehung P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ B) , so sind X und Y unabhängig Zeige für alle x , y die Gleichung o n P(X = x, Y = y) = P(X = x) · P(Y = y) → Setze hierzu A = {x} , B = {y} B Definition der Unabhängigkeit mit Bedingung P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ B) wäre gleichwertig mit gegebener Definition 4 Im allgemeinen Fall versagt die Formulierung pij = pi. p.j , allgemeine Definition daher später über P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ B) 1.2 QM1_16 141 → Unabhängigkeit von mehr als 2 Zvan ♦ Sind Xi : Ω → Ωi ( i = 1, . . . , n ) Zvan auf < Ω, P > mit Werten in endlichen Mengen Ωi , so heißen X1 , . . . , Xn (gemeinsam) unabhängig , falls für alle x1 ∈ Ω1 , x2 ∈ Ω2 , . . . , xn ∈ Ωn folgende Beziehung gilt : P(X1 = x1 , X2 = x2 , . . . , Xn = xn ) = P(X1 = x1 ) · P(X2 = x2 ) · . . . · P(Xn = xn ) 4 Gemeinsame Unabhängigkeit ist mehr als paarweise Unabhängigkeit für alle Paare ( n > 2 ) • Zvan Xi : Ω → Ωi ( i = 1, . . . , n ) auf < Ω, P > mit Werten in endlichen Mengen Ωi sind genau dann unabhängig , falls für alle A1 ⊆ Ω1 , A2 ⊆ Ω2 , . . . , An ⊆ Ωn folgende Beziehung gilt : P(X1 ∈ A1 , X2 ∈ A2 , . . . , Xn ∈ An ) = P(X1 ∈ A1 ) · P(X2 ∈ A2 ) · . . . · P(Xn ∈ An ) • Sind X1 , . . . , Xn gemeinsam unabhängig , so gilt dies auch für jede Teilmenge der Xi 1.2 QM1_16 142 → Untersuchung von Fragen nach Unabhängigkeit / Abhängigkeit Oft ist interessant , ob zwei Variablen unabhängig sind ? Geschlecht und Intelligenz Hypothesen : Unabhängigkeit wird zur H0 Test dann auf der Basis von Stichproben ? − → − Was ist eigentlich das W-Maß ? Im Beispiel naheliegend : Gleichverteilung in der Population Stichprobenziehung muss zum W-Maß passen Im Beispiel : ‚ repräsentative ‘ Stichprobe ? Was ist eigentlich die Population ? ? ??? B Bei Anwendungen darf man nicht zu genau hinschauen 1.2 QM1_16 143 → Funktionen von Zvan und deren Verteilung ♦ Ist X : Ω → Ω0 eine Zva auf < Ω, P > und h : Ω0 → Ω00 eine Funktion , so ist h(X) definiert als die Zva h(X) : Ω → Ω00 mit h(X)(ω) := h(X(ω)) für alle ω ∈ Ω ? Ω = { a, b, c, d, e, f, g, h, i, j } − W-Funktion f und reelle Zva X gegeben durch Tabelle − Funktion h : x 7→ x2 Bezeichnung für h(X) dann auch X 2 Tabelle mit vorgegebenem f , X und mit h(X) = X 2 ω a b c d e f g h i j f (ω) .15 .15 .05 .10 .15 .10 .10 .05 .10 .05 X(ω) 2 0 1 −1 −2 1 0 −2 1 −1 X 2 (ω) 4 0 1 1 4 1 0 4 1 1 Verteilung von X und X 2 über die W-Funktionen x −2 −1 0 1 2 fX (x) .20 .15 .25 .25 .15 B 1.2 y 0 1 4 fX 2 (y) .25 .40 .35 W-Funktion von X 2 kann auch aus fX bestimmt werden QM1_16 144 ? − ? − Summe von Zvan Summe als Beispiel einer Funktion von 2 Zvan Gegeben : W-Raum mit zwei rellen Zvan X , Y Bilde daraus die neue Zva S := X + Y a b c d e f g h i j ω f (ω) .15 .15 .05 .10 .15 .10 .10 .05 .10 .05 X(ω) 1 0 1 2 1 0 1 2 1 2 Y (ω) 0 1 2 0 2 1 0 2 1 1 S(ω) 1 1 3 2 3 1 1 4 2 3 Gemeinsame Verteilung von X und Y und Verteilung von S x\y 0 1 2 0 .00 .25 .00 1 .25 .10 .20 2 .10 .05 .05 B s 0 1 2 3 4 fS (s) .00 .50 .20 .25 .05 fS kann auch aus Kreuztabelle bestimmt werden • Die Verteilung einer Funktion einer ( oder mehrerer ) Zva(n) kann auch auf der Basis der Verteilung der Zva ( bzw. der gemeinsamen Verteilung der Zvan ) bestimmt werden B Rückgriff auf das ursprüngliche P auf Ω ist nicht nötig 1.2 QM1_16 145 Ergänzungen zur Deskriptiven Statistik. → Qualitative Variablen ( auch : quantitative mit wenig Werten ) 4 Bekannt : − → Absolute und relative Häufigkeitsverteilung einer Variablen Gemeinsame Verteilung von zwei Variablen Notation für den allgemeinen Fall : − Variablen : X , Y − Mögliche Werte : x1 . . . , xI ( X ) , y1 . . . , yJ ( Y ) − Stichprobengröße : n n(X = xi ) : Absolute Häufigkeit des Wertes xi h(X = xi ) := n(X = xi )/n : Relative Häufigkeit von xi → I X n(X = xi ) = n i=1 → I X h(X = xi ) = i=1 I X n(X = xi )/n i=1 = (1/n) I X n(X = xi ) = (1/n) · n = 1 i=1 Y analog 1.3 QM1_16 146 ? Beispiel : Zusammenhang zwischen Geschlecht und Haarfarbe ? − X : Geschlecht , Werte : m , w − Y : Haarfarbe , Werte : b , r , s ( blond , rot , schwarz ) ? Stichprobe : Vp 1 2 3 4 5 X w m w w w Y b b r b s Vp 6 7 8 9 10 X m w w m m Y s r b s r Vp 11 12 13 14 15 X w w w w w Y r b b b s Vp 16 17 18 19 20 X m w w w w Y s b s b b Auszählen am besten mit Strichliste x\y b r s m | | ||| w ||||| |||| ||| ||| Absolute Häufigkeiten x\y m w b 1 9 10 r 1 3 4 s 3 5 3 15 6 20 Relative Häufigkeiten x\y b r s m .05 .05 .15 .25 w .45 .15 .15 .75 .50 .20 .30 1 1.3 QM1_16 147 Notationen : n(X = xi , Y = yj ) : Absolute Häufigkeit von (xi , yj ) h(X = xi , Y = yj ) : Relative Häufigkeit von (xi , yj ) Kurzschreibweisen : − nij für n(X = xi , Y = yj ) − hij für h(X = xi , Y = yj ) → − → Versammlung der Häufigkeiten in Kontingenztafeln mit Randsummen ( analog zu Wahrscheinlichkeiten ) Absolute Häufigkeiten : x\y x1 x2 .. . xI → 1.3 y2 n12 n22 .. . nI2 n.2 . . . yJ . . . n1J n1. . . . n2J n2. .. .. . . . . . nIJ nI . . . . n.J n y2 h12 h22 .. . hI2 h.2 . . . yJ . . . h1J h1. . . . h2J h2. .. .. . . . . . hIJ hI . . . . h.J 1 Relative Häufigkeiten : x\y x1 x2 .. . xI B y1 n11 n21 .. . nI1 n.1 y1 h11 h21 .. . hI1 h.1 ni. = n(X = xi ) etc. etc. QM1_16 148 → Bedingte relative Häufigkeiten 4 Analog zu bedingten Wn ♣ Voraussetzung im Folgenden : − Alle hi. und alle h.j sind 6= 0 ♦ Die Zahlen h(Y = yj | X = xi ) := n(Y = yj , X = xi ) n(X = xi ) heißen bedingte relative Häufigkeiten von Y unter X = xi 4 Kurz : h(Y = yj | X = xi ) = nij ni. 4 ‚ X unter Y ‘ : analog → Berechnung mit relativen Häufigkeiten : • o n 1.3 h(Y = yj | X = xi ) = h(Y = yj | X = xi ) = hij hi. nij nij /n hij = = ni. ni. /n hi. QM1_16 149 ? Bedingte relative Häufigkeiten im Beispiel Kontingenztafeln : x\y m w b 1 9 10 r 1 3 4 s 3 5 3 15 6 20 x\y b r s m .05 .05 .15 .25 w .45 .15 .15 .75 .50 .20 .30 1 Bedingte relative Häufigkeitsverteilungen von Y : y b r s h(Y = y | X = m) .2 .2 .6 h(Y = y | X = w) .6 .2 .2 Bedingte relative Häufigkeitsverteilungen von X : x m h(X = x | Y = b) .10 h(X = x | Y = r) .25 h(X = x | Y = s) .50 1.3 w .90 .75 .50 QM1_16 150 → ? Graphische Darstellung Kontingenztafel ( relative Häufigkeiten ) x\y b r s m .05 .05 .15 .25 w .45 .15 .15 .75 .50 .20 .30 1 Darstellung der relativen Häufigkeiten : − Zwei Möglichkeiten : .5 0.1 ........ ......... ... .... .. ... ... ... .............. ... ............ ... ... ... ... .. ............. ... ... ... ... ... ... ... .. ... ... ... .................. ... ... ... ......... ...... ... ... ... ................. ... ... .. ... ... ... ... . ... .. ..................... ... . . ... .. ........ ......... ... ............... ... ........................... ... ... ... ......... ............... ........... ................ ... ... ... ...... ...... .............. ................ ... ... .. ............ ............... ............... . . . . . . . . ... . . . . . . . . ... .. ....... .. ............ .......... ............. .............. ... .. . .. .. . . .. .. . . .. .... ..... .. .................................................................................................................................................................................................................... m 0.5 0.1 − 1.3 X w . ....... .......... ... .... .. ... ... ... ... ........ ............ ... ............ ... ...... ............. ... .......... ... .......... .............. ... .......... ... ... .......... ... ............ ............. ... ...... ............. ... .......... ... .......... ....................... ... .......... ............... .......... .......... ............ .................. ... ............ ............ ..................... ... .. ........... ... ...... ...... ... ... ........... ............. ............. ... ... ... .......... .......... .......... ... .......... .......... .......... .......... ... ... .................. .. .. .......... .. .. .......... ... . ............................................................................................................................................................................................................................................. b B b r s r s m w Y Absolute Häufigkeiten : Praktisch genauso Nur andere Skalierung der Ordinate QM1_16 151 → Bedingte relative Häufigkeiten − Zunächst von Y ‚ unter X ‘ y b r s h(Y = y | X = m) .2 .2 .6 h(Y = y | X = w) .6 .2 .2 Zwei Möglichkeiten der Darstellung : 0.5 0.1 ... ...... ........ .... ... ... ... ............ ... ........................ ... .. ... .. .. . ... ... .............. ... ... ... ..................... ... ... ... .............. ... .............. ... .. .............. ... . .. . . ... ... ... ... ...................... ... ... ... ............. .............. ... ... .. ............. . . ... . ... .. ............. ............ ... . ... .. .................. ............... ... . . ... .. . ... .. .. .... ... ... ... ......................... ..................... ... ... ... ............. ............ ... ... .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . . . . . . . . ... .. ..... .... ........... ... .. .... ...... .............. ... ... ... ............ ................ ... ... ........ .... ................. ........................ ... ........................... ... .. .... ....... ............... ... ... ............. ............... ........... ... ... ...... ..... ............... ... ... .. .... ....... ............... ... ... ........... .............. ... ... ....... .... ............... ... ... .. ............. ............... ... ... ........... ............... ... ... ... ...... ..... ............... ... .. .... ....... ............... ... . .................................................................................................................................................................................................................. m 0.5 0.1 1.3 X w . ....... .......... ... .... .. ... ... ............ .................. ... ... .. .......... ... .......... ... ... .......... ... ... .. ............ ... ... ... ...... ... ... ............ ... .......... ... .. ... .......... ... ... ... .......... ... ... .......... ... .......... ... ... ... . . ...... ... .. ............ ... .............. ... ... .......... ... ... ... ... ... .......... ... .......... ............. ... .. .......... ... ... ... ........... . . ... . . ... .. ......... ............ ................. ............ .................. . . . . . . . ... . . . ........................ ... .. ........... ... .. ........... ... ... ........... ... ........... ... ... ........... ... ... ........... ... .. .................. .......................... ... ... ... .................. ... ... .................. ... ... .......... ... ... .. ........... ... .. ........... ... ... ............ . . . . . . ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... .. .......... ... .. .......... ... .. .......... ... . .. . . .. . . .. . ...................................................................................................................................................................................................................................................................................... b 4 b r s r s m w Y Unterschiedliche jeweilige Vorteile der Diagramme QM1_16 152 → − Bedingte relative Häufigkeiten Nun von X ‚ unter Y ‘ x m h(X = x | Y = b) .10 h(X = x | Y = r) .25 h(X = x | Y = s) .50 w .90 .75 .50 Wieder zwei Möglichkeiten der Darstellung : 1 .5 0.1 ... ...... ......... .... ... ... ... ... ... ........... ... ... ... ... ... ... ... ... .. ... ... ... ........ ... ... ..... .... ... ... .. ........... ... ... ... ... ........ ... ... ... ............ ... ... ... ........ ... ... ... .. ........... ............... ... ... ... ........... ... .. ... ... ... ........ ... ....... ............. ................ ... ... .. ............ ................ . ... ... ............. ............. ... ...................... ... .. ....... .... ............... .............. ... ................... .. .. . ... ... ........... .............. ... . .. . ..................... ... ... .... ....... ............... ... ........................... ... .... ... ... ........... ................ ... .................... ... .. ......... .. .............. ............. ... . . . . . . . ... .. .. ....... ............ ............. ............... ... ... ... ...... ..... ............... ............ ............... ... ......................... ... .. ........... ................ .... ........ ............... .......................... ... ... ... ........... ............... ........... ............. ................ ... ... ..... ....... ............. ... . .. . ... .. ... .. ........ ... ............... ... ........... ............... .................... ... ... ............ ................. ... ... ............ ................ ... ... ... ..... ....... ............... ... ... ............ ................ ... .......................................................................................................................................................................................... m 1 .5 0.1 X w ....... ......... ... .. ... ... ... ... ... ................. ........... ... .......... ... .......... ... .......... .......... ... .................. ............ ... ........... ...... ........... ............ ... .......... .......... ... .......... .......... ... .......... . . . . . . . . .......... ............ ... ............ ............ ... ...... ...... ............ ............. ... ........... ................. .......... .......... ... ... ... ........... .......... .......... ... .......... .......... ... .. .......... .......... .......... ... ... .................. ... .............. ............ .......... ... ... ............ ... ... ... . . ...... ...... ... .. .......... ............. ............ ............. ... . ........... .......... .......... . . . ... . ... .. .......... .......... .......... ... . . . . . . . . . . . . . . .......... . . . ... .. .......... ........... ........... .......... . ... . . . . . . ... .. .......... ... .. .......... .......... ....................... ... .......... ............. ... .. .......... ... ... .................. ...................... .......... ... ... ... .................. ... .. .......... .......... . . . . . . . ... . . . . . . . ... .. ......... ... .. ................ ........... ................... . . . . . . . ... . . . . . ... .. .......... ... .. ........... ... ... ........... . ... . . . . . . ....... ....... ....... ............................................................................................................................................................................................................................................................... b 1.3 b r s r s m w Y QM1_16 153 → • Bedingte Verteilungen und Randverteilung h(X = xi ) = J X h(X = xi | Y = yj ) h(Y = yj ) j=1 o n Rechte Seite ist X hij j h.j h.j = X hij = hi. j 4 Randverteilung von Y : analog 4 Analog auf theoretischer Ebene für Wahrscheinlichkeiten 4 Vgl. Satz von der totalen Wahrscheinlichkeit B Andere Formulierung : − Randverteilung ist gewichtetes Mittel der bedingten Verteilungen − Gewichte stammen aus der anderen Randverteilung 4 − B 1.3 Gemeint ist : Jede relative Randhäufigkeit hi. ist gewichtetes Mittel ... Gewichte sind dabei unabhängig von i QM1_16 154 → Umrechnung bedingter relativer Häufigkeiten • h(X = xi | Y = yk ) h(Y = yk ) h(Y = yk | X = xi ) = P j h(X = xi | Y = yj ) h(Y = yj ) o n Zähler : hik , Nenner : hi. 4 h(X = xl | Y = yj ) analog 4 Analog auf theoretischer Ebene für Wahrscheinlichkeiten 4 Vgl. Satz von Bayes → Stichprobe und Population Interessant sind Verhältnisse in Populationen ? Sind zwei Variablen abhängig oder unabhängig ? Untersuchung solcher Fragen mit Hilfe von Stichproben ♠ − → − 1.3 Populationsverhältisse sollten sich in Stichprobe widerspiegeln Jedenfall mehr oder weniger Ein Hauptthema der Statistik : Möglichkeit von Rück ‚ schlüssen ‘ QM1_16 155 → Unabhängigkeit / Abhängigkeit in Stichproben → Entsprechende Fragen sind interessant für Populationen − für die Stichprobe eigentlich weniger → Trotzdem : Verhältnisse in Stichprobe können Hinweise geben → Bildung hilfreicher Begriffe ♦ Zwei Variabe X und Y heißen ( in der Stichprobe ) unabhängig , falls in der Kontingenztafel für alle i, j folgende Beziehung gilt : hij = hi. h.j 4 Imitation des Unabhängigkeitsbegriffs auf Stichprobenebene Bei Unabhängigkeit in der Population sollte hoffentlich in der Stichprobe ‚ näherungsweise ‘ Unabhängigkeit gegeben sein ‚ Starke Abweichung ‘ von der Unabhängigkeit in der Stichprobe spricht gegen Unabhängigkeit in der Population → − 1.3 Aufgabe : Entwicklung eines ‚ Maßes ‘ für den Grad der Abhängigkeit QM1_16 156 → Ein Gegenbegriff zur Unabhängigkeit → Motivation : − Eine ‚ starke ‘ Abhängigkeit liegt vor , wenn man aus der Ausprägung einer Variable auf die Ausprägung der anderen ‚ schließen ‘ kann ? Beispiel : Kontingenztafel relativer Häufigkeiten x\y y1 y2 y3 x1 .00 .25 .00 x2 .35 .00 .40 → − ? Hier kann von Y auf X ‚ geschlossen ‘ werden Nicht aber von X auf Y Beispiel : x\y y1 y2 y3 x1 .10 .25 .00 x2 .25 .00 .40 → ? In keiner Richtung ist ein ‚ Schluss ‘ möglich Beispiel : x\y x1 x2 x3 → 1.3 y1 .25 .00 .00 y2 .00 .00 .30 y3 .00 .45 .00 ‚ Schlüsse ‘ sind in beide Richtungen möglich QM1_16 157 ♦ Zwei Variablen X und Y heißen vollständig abhängig ( in der Stichprobe ) , falls für ihre Kontingenztafel ( mindestens ) eine der folgenden Bedingungen gilt : (i) In jeder Zeile steht höchstens eine Zahl 6= 0 (ii) In jeder Spalte steht höchstens eine Zahl 6= 0 4 (i) : Y ist von X abhängig , (ii) : X von Y 4 Dieser Abhängigkeitsbegriff ist bestenfalls ‚ statistisch ‘ − 4 − B − 4 − 1.3 ‚ Bestenfalls ‘ : Bezug auf die Stichprobe , nicht die Population Vollständige Abhängigkeit und Unabhängigkeit schließen sich aus Trivialfälle ( Variablen mit nur einer Ausprägung ) ausgenommen Sie sind aber nicht das jeweilige Gegenteil Es gibt Fälle ‚ dazwischen ‘ Da alle Randsummen 6= 0 sind ( allgemeine Voraussetzung ) kann man ‚ höchstens ‘ durch ‚ genau ‘ ersetzen QM1_16 158 → Erwartete relative Häufigkeiten ♦ Sind hij die relativen Häufigkeiten in einer Kontingenztafel , so heißen die Zahlen eij := hi. h.j auch erwartete relative Häufigkeiten ? Kontingenztafel mit Randsummen : x\y y1 x1 .05 x2 .45 .50 → y2 .05 .15 .20 y3 .15 .25 .15 .75 .30 1 Tafel der eij mit Randsummen : x\y y1 y2 y3 x1 .125 .050 .075 .250 x2 .375 .150 .225 .750 .500 .200 .300 1 → Die Randsummen bleiben erhalten X • X eij = h.j , i X o n 1.3 i eij = X i eij = hi. j hi. h.j = h.j X hi. = h.j · 1 = h.j i QM1_16 159 4 − 4 ‚ Erwartete ‘ relative Häufigkeiten : ‚ Erwartet ‘ bei Unabhängigkeit Die eij sind denkbare relative Häufigkeiten ( ≥ 0 , − mit gleichen ( gegebenen ) Randsummen − die bei Unabhängigkeit vorliegen müssten P : 1) → Idee für ein Maß der Abweichung von Unabhängigkeit : − Vergleiche die hij mit den eij ♦ Sind hij die relativen Häufigkeiten in der Kontingenztafel von zwei Variablen X und Y , so heißt die Zahl 2 ϕ := J I X X (hij − eij )2 i=1 j=1 eij auch ϕ2 -Koeffizient der Kontingenztafel 4 − ϕ2 ist genau dann 0 wenn hij = eij für alle i, j also genau bei Unabhängigkeit 4 ϕ2 wächst mit den Unterschieden zwischen den hij und eij B ϕ2 scheint sich als Abhängigkeitsmaß zu eignen 1.3 QM1_16 160 ? Berechnungsbeispiel Kontingenztafel mit Randsummen : x\y y1 x1 .05 x2 .45 .50 → y2 .05 .15 .20 y3 .15 .25 .15 .75 .30 1 Tafel der eij : y2 y3 x\y y1 x1 .125 .050 .075 x2 .375 .150 .225 Berechnung (i, j) hij (1, 1) (1, 2) (1, 3) (2, 1) (2, 2) (2, 3) → ? 1.3 .05 .05 .15 .45 .15 .15 eij .125 .050 .075 .375 .150 .225 (hij − eij ) −.075 .000 .075 .075 .000 −.075 (hij − eij )2 eij .045 .000 .075 .015 .000 .025 .160 ϕ2 = .16 ( Was sagt uns das ? ) QM1_16 161 → Alternative Berechnungsformeln 2 ϕ = • X h2ij eij i,j ϕ o n 2 = X n2ij − 1 = − 1 n n i . . j i,j X (hij − eij )2 eij i,j = X i,j = X h2ij i,j = i,j eij = X i,j eij X h2ij i,j X h2ij eij X h2ij i,j = h2ij − 2hij + eij eij eij −2 X i,j eij i,j − 1 X n2ij (nij /n)2 = (ni. /n)(n.j /n) ni. n.j i,j Vorteil : Meist schnelleres Rechnen − Nachteil : Bedeutung nicht so klar 1.3 X − 2 + 1 4 → hij + ! Ursprüngliche Formel für Definition geeigneter QM1_16 162 → Eigenschaften Abkürzung : L = Min( I, J ) ? Für I = 2 und J = 3 ist L = 2 ϕ2 ≥ 0 • • ϕ2 = 0 ⇔ 4 X und Y sind unabhängig ϕ2 = L − 1 ⇔ X und Y sind vollständig abhängig Werte 0 und L − 1 haben Bedeutung ? Werte dazwischen ? ? Vergleichbarkeit von Werten ? − 4 ϕ2 ≤ L − 1 • • ‚ Weder – noch ‘ Je größer ϕ2 , um so größer die Abhängigkeit ?? Vergleiche vielleicht möglich bei Tafeln gleicher Größe ? Können wir jetzt das Ausmaß der Abhängigkeit ‚ messen ‘ ? ? Bringt der Koeffizient neue nichtstatistische Einsichten ? 1.3 QM1_16 163 → Verwandte Indizes r ♦ 4 − 0 ϕ := ϕ2 L−1 ϕ0 ‚ erbt ‘ die Eigenschaften von ϕ2 Vorteil : Maximalwert ist hier immer 1 0 ≤ ϕ0 ≤ 1 • • • ♦ ϕ0 = 0 ϕ0 = 1 ⇔ 1.3 X und Y sind unabhängig X und Y sind vollständig abhängig Zur Unterscheidung auch Pearson-χ2 0 ≤ χ2 ≤ n (L − 1) χ2 = 0 • χ2 = n (L − 1) B ⇔ χ2 := n ϕ2 heißt auch χ2 -Koeffizient • • heißt auch Cramérs V ⇔ ⇔ X und Y sind unabhängig X und Y sind vollständig abhängig χ2 wird für einen verbreiteten Test auf Unabhängigkeit benutzt QM1_16 164 → Alternative Berechnung von χ2 χ2 • = X i,j n eij = n o n χ 2 ni. n.j 2 nij − n ni. n.j n ni. n.j ni. n.j = n n n X (hij − eij )2 = nϕ = n eij i,j 2 X n2 (hij − eij )2 X (n (hij − eij ))2 = = n e n eij ij i,j i,j = X i,j 4 − ni. n.j 2 nij − n ni. n.j n Für die praktische Rechnung womöglich bequemere Formeln Vgl. ϕ2 Die n eij = ni. n.j heißen auch erwartete Häufigkeiten n 4 ‚ Erwartet ‘ bei Unabhängigkeit und gegebenen Randsummen B Meist keine möglichen Häufigkeiten, da keine natürliche Zahlen 1.3 QM1_16 165 → − − → χ2 mit anderen Bezeichnungen fo,ij := nij : ‚ beobachtete Häufigkeiten ‘ f : ‚ frequency ‘ , o : ‚ observed ‘ , fe,ij := n eij = ni. n.j : ‚ erwartete Häufigkeiten ‘ n e : ‚ expected ‘ Mit diesen Bezeichnungen : χ 2 = X i,j 4 1.3 ni. n.j 2 nij − X (fo,ij − fe,ij )2 n = ni. n.j fe,ij i,j n Vergleich von beobachteten und erwarteten Häufigkeiten QM1_16 166 → Testen mit χ2 Hypothesen : H0 : X und Y sind unabhängig H1 : nicht H0 B Die Hypothesen beziehen sich auf die ‚ Population ‘ → Theoretische Ebene B X und Y werden als Zvan betrachtet → Vorgehen : − Ziehen einer ‚ Zufallsstichprobe ‘ − Berechnen von χ2 − Verwerfen von H0 für große Werte 4 Kritische Werte in geeigneten Tabellen B Wie üblich : Schwache Position von H0 4 Ein ganz ähnlicher Test benutzt eine eine andere , auch χ2 genannte Statistik ( ‚ Maximum-Likelihood-χ2 ‘ ) 1.3 QM1_16 167 → ? Mehr als zwei Variablen Ein Beispiel mit drei Variablen Hat ein Gen G etwas mit einer Eigenschaft E zu tun? Geschlecht wird bei Untersuchung berücksichtigt Jetzt : Drei Variablen − X : Gen ( Werte : g+ , g− : vorhanden : ja , nein ) − Y : Eigenschaft ( Werte : e+ , e− : vorhanden : ja , nein ) − Z : Geschlecht ( Werte : m , w ) → Statt Kontingenztafel jetzt : ‚ Kontingenzquader ‘ Y e+ e− ..... ..... ..... ..... ..... ..... ............ ............ ........ ........ ................................................................................ ..... .. .. .. ..... ..... ..... .. ................................................ ..... ..... ..... .... .... . ... . ..... ..... . . ......................................................................................... . . . .... . ..... ..... ..... ... ... ................................................ ..... ..... ..... ... . . . ... . . . . . . . . . ... ....................................................................................... . . . . .... ............ ... .. .. . . . .... ... ......... .... .... .... . ... ... ... ... ................................................ ....... ... ... ... ... ............. ... ... . . ..... .. . . .... .... ............ .... ..... .............................................................................. .. . . ... ......... .... ... ... ... ...... .... ... ... . ......... ... ... ... ................................................ ... ... ... ......... ... ... ... ....... ... .... .......... ......................................................................... g+ X g− m Z → ? 1.3 w Datendarstellung : ‚ schichtweise ‘ Beispielsweise eine Schicht m und eine Schicht w QM1_16 168 Y e+ e− ..... ..... ..... ..... . ...... . ...... .......... .......... ........ ........ ................................................................................ .... ... ... .. ..... .... .... .. ................................................ ..... ..... ..... .... ..... . . ..... ..... ... . . ....................................................................................... . . . .... . . . .. ..... ..... ..... .. ... ................................................ ..... ..... ..... ... . . . ... . . . . . . .. ........................................................................................ . . . ... ........... ... . . . . . .... ... ......... .... .... .... . .. ... ... ... ... ................................................ ..... ... ... ... ... ....... ... ... . . ........ .... . . . ..... ..... .............. .... ..... .. ............................................................................. . . ... ......... ... ... ... .... ... ... .... ......... ... ... ... .... ................................................ ..... ... ... ... .... ... ... ... ........ ... ... ........... ........................................................................... g+ X g− m Z ? w Beispiel ‚ daten ‘ ( Werte der Übersichlichkeit halber ) Z=m x\y e+ e− g+ 1 2 g− 3 4 Z=w x\y e+ e− g+ 5 6 g− 7 8 Andere Anordnung : X = g+ z\y e+ e− m 1 2 w 5 6 X = g− z\y e+ e− m 3 4 w 7 8 Dritte mögliche Anordnung : Y = e+ z\x g+ g− m 1 3 w 5 7 1.3 Y = e− z\x g+ g− m 2 4 w 6 8 QM1_16 169 → Randverteilungen → Sinnvoll : Zunächst von je zwei Variablen Y e+ e− ... ..... ..... .............. . . . ...... g+ X g− ? .................................................................................... ..... . .. ..... ..... ..... .. ..... ..... ..... .... ... ......................................................................................... . . . . . ... ... ... ...... . . . . . . . . . . . . . ... ..... ..... ..... .. ... ..... ..... ..... .... . . . . . . . . . . . . .. .................................................................................. ... . . . . . .... ....... ... .... . . . . . . . .... .... ......... .... .. .. . . ... ... .... .... .... .... ..... ... ... ............. ..... ... ... ... ... ....... .. . ..... . .. .. . . ... . . . . ... . ............................................................................... . ... ......... .. ... ... ... . . ... ...... . . .. .... .... .... ..... ... ... ... ......... ... .. .. ..... ......................................................................................... ................................................. ................................................ Z ... ..... ..... .............. . . . ...... m ................................................ w ................................................. Daten Z=m x\y e+ e− g+ 1 2 g− 3 4 Z=w x\y e+ e− g+ 5 6 g− 7 8 Randverteilungen von X und Y , Z und Y , Z und X − mit jeweiligen Randverteilungen der Einzelvariablen X, x\y e+ g+ 6 g− 10 16 B 1.3 Y e− 8 14 12 22 20 36 Z, z\y e+ m 4 w 12 16 Y e− 6 10 14 26 20 36 Z, z\x g+ m 3 w 11 14 X g− 7 10 15 26 22 36 Randverteilungen von X , Y , Z müssen jeweils gleich sein QM1_16 170 → Bedingte Verteilungen B Unterschiedliche Arten von bedingten Verteilungen ? Daten Z=m x\y e+ e− g+ 1 2 g− 3 4 Z=w x\y e+ e− g+ 5 6 g− 7 8 ? Beispiele für bedingte Verteilungen : ? Bedingte ( gemeinsame ) Verteilung von X , Y für Z = m − mit Randverteilungen Z=m x\y e+ e− g+ .1 .2 .3 g− .3 .4 .7 .4 .6 1 B − ? Randverteilungen hier : Bedingte Verteilungen von X und Y für Z = m Bedingte Verteilung von X für Z = m und Y = e+ Z = m , Y = e+ x g+ g− .25 .75 1 4 1.3 Vgl. bedingte Verteilung von X und Y für Z = m QM1_16 171 → ‚ Bedingte Unabhängigkeit ‘ ? Ein Beispiel für mögliche Überraschungen ? Daten Z=m x\y e+ e− g+ 1 9 g− 9 81 Z=w x\y e+ e− g+ 81 9 g− 9 1 Bedingte gemeinsame Verteilungen von X und Y : Z=m x\y e+ e− g+ .01 .09 .1 g− .09 .81 .9 .1 .9 1 → Z=w x\y e+ e− g+ .81 .09 .9 g− .09 .01 .1 .9 .1 1 ‚ Bedingte Unabhängigkeit ‘ für m und für w Randverteilung von X und Y ( relative Häufigkeiten ) x\y e+ e− g+ .41 .09 .5 g− .09 .41 .5 .5 .5 1 → − 1.3 Ziemlich deutliche Abhängigkeit insgesamt trotz Unabhängigkeit für m und w für sich genommen ! QM1_16 172 ? Noch ein Beispiel ? Daten Z=m x\y e+ e− g+ 25 0 g− 0 25 → Z=w x\y e+ e− g+ 0 25 g− 25 0 Vollständige Abhängigkeit bei m und bei w Randverteilung von X und Y ( relative Häufigkeiten ) x\y e+ e− g+ .25 .25 .5 g− .25 .25 .5 .5 .5 1 → − B − ! 1.3 Unabhängigkeit insgesamt trotz vollständiger Abhängigkeit für m und w getrennt Begrifflichkeit ist komplizierter als man vielleicht ( naiv ) zuerst denkt Gefahren unreflektierten Daherassoziierens ! QM1_16 173 → ? − Quantitative Daten Gegeben sind Daten von 20 Vpn in einer Variable X 4, 2, 1, 5, 3, 1, 5, 3, 2, 5, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2 xi : Wert von Vp i ! Andere Verwendung des Symbols xi als vorher ? x5 = 3 Häufigkeitsauszählung ( geordnet ) − wj : mögliche Werte ( j = 1, . . . J ) nach Größe geordnet : w1 < w2 < . . . < wJ nj : absolute Häufigkeit von wj ♦ hj := nj /n : relative Häufigkeit von wj → Tabelle mit ‚ kumulierten relativen Häufigkeiten ‘ F (wj ) j 1 2 3 4 5 6 P 1.3 wj 0 1 2 3 4 5 nj 1 4 7 3 2 3 20 hj 0.05 0.20 0.35 0.15 0.10 0.15 1.00 F (wj ) .05 .25 .60 .75 .85 1.00 QM1_16 174 j 1 2 3 4 5 6 P wj 0 1 2 3 4 5 nj 1 4 7 3 2 3 20 hj 0.05 0.20 0.35 0.15 0.10 0.15 1.00 F (wj ) .05 .25 .60 .75 .85 1.00 Neu nur : die kumulierten relativen Häufigkeiten F (wj ) Formal : ♦ F (wk ) := k X hj j=1 4 Analogie : Verteilungsfunktion Bedeutung von F (wj ) : − ? Anteil der Stichprobe mit Werten ≤ wj F (3) = .75 → 75% der Vpn haben einen Wert ≤ 3 → 25% der Vpn erreichen einen höheren Wert als 3 ♦ 100 F (w) heißt auch Prozentrang von w ? Der Prozentrang von 3 ist 75 1.3 QM1_16 175 Der Prozentrang einer Vp ist der Prozentrang ihres X-Wertes 4 Über den Prozentrang kann man manchmal ( mit aller Vorsicht ) Personen in verschiedenen Situationen vergleichen ? Zwei Gruppen schreiben verschiedene Statistikklausuren − A aus Gruppe 1 erreicht 19 Punkte − B aus Gruppe 2 erreicht 23 Punkte ? Wer ist besser ? ? ??? ( ‚ Ist es nachts kälter als draußen ? ‘ ) Nun seien zusätzlich die Prozentränge bekannt − Prozentrang von A : 86 , Prozentrang von B : 47 → ( Mit aller Vorsicht ) A ist besser B Voraussetzung für derartige Vergleiche : − 4 ? → Die beiden Gruppen sind hinsichtlich der Leistung etwa gleich Prozentrang wird oft in Diagnostik verwendet Leistungsbeurteilung Antwort auf die Frage : − Wo steht ein Proband in seiner Vergleichsgruppe ? − Voraussetzung : ‚ Normstichproben ‘ 1.3 QM1_16 176 j 1 2 3 4 5 6 P wj 0 1 2 3 4 5 nj 1 4 7 3 2 3 20 hj 0.05 0.20 0.35 0.15 0.10 0.15 1.00 F (wj ) .05 .25 .60 .75 .85 1.00 Umgekehrte Fragestellung : ? 4 Welchen Wert braucht man für einen Prozentrang von 85 ? ( 4 ) Welchen Wert braucht man für einen Prozentrang von 50 ? Nicht ganz klar → Geeignete Konventionen nötig → Darstellung der kumulierten relativen Häufigkeiten − ? analog zur Verteilungsfunktion F 1 .. ....... ........ .... ... ... ................................................................. ... ... ... ... ... .................................... ... ... .................................... ... ... ... ... ... .................................... ... ... ... ... ... ... ... ... ... .................................... ... ... ... ... ... ... ..................................... .............................................................................................................................................................................................................................................................................. r r r r .5 r 0 r 0 4 1.3 1 2 3 4 5 x Sprunggrößen im Balkendiagramm der relativen Häufigkeiten QM1_16 177 → Kenngrößen für quantitative Variablen → Maße der zentralen Tendenz ? Wo liegen die Daten ‚ im Mittel ‘ ? → Weit verbreitet : Mittelwert ♣ Situation : n Vpn liefern in Variable X die Werte x1 , . . . , xn − Mögliche Werte geordnet : w1 , . . . , wJ − Relative Häufigkeiten der Werte : h1 , . . . , hJ ♦ In der gegebenen Situation heißt MX n 1 X := xi n i=1 auch Mittelwert der Variable X Schreibweise manchmal auch M (X) Berechnung mit relativen Häufigkeiten • MX = J X wj hj j=1 4 1.3 Gewichtetes Mittel der möglichen Werte , Gewichte : hj QM1_16 178 → Verhalten des Mittelwerts bei Transformationen ♦ Eine Funktion f : R → R mit f (x) = a x + b heißt manchmal auch lineare Transformation 4 Nicht die glücklichste Bezeichnung Erinnerung : Schaubild : . ....... ......... ......... .... ......... ... ......... ......... . . . . . . ... . . . ... ......... .... ... ......... ... ... ......... ......... ... ... ......... . . . . . . . ... . . .......................................................................... . . . . . ... . . . . . . . ...... . . . . . . ... . . ...... . . . . . . ... . . ... ......... ... ......... ... ......... ......... ... ......... . . . . . . ... . . ... ... ................. . ......... ......... .... ......... . . . . . . . . . . ......... .... ......... ......... ... ......... ... ......... ... ... ... ... ... ... ............................................................................................................................................................................................................................... .... f (x) a 1 b x 1 ? Umrechnungen von Intervallskalen B Genauer : − Intervallskalen sind dadurch definiert, dass die möglichen Umrechnungen von einer Skala in eine andere genau die linearen Transformationen mit a 6= 0 sind ? 1.3 Umrechnung Celsius → Fahrenheit : ◦ F = 9◦ C + 32 5 QM1_16 179 Bildung neuer Variablen Ist X eine Variable und f eine Funktion auf dem Bereich der möglichen Werte von X , so ist f (X) die Variable, die den Wert f (x) annimmt , falls X den Wert x annimmt ? X : Temperatur in Celsius Y = 9 X + 32 : Temperatur in Fahrenheit 5 ? Ist Y = X 2 und hat Vp 4 in X den Wert 3 , so hat sie in Y den Wert 9 ( x4 = 3 ⇒ y 4 = 9 ) − Analog : Funktionen von 2 Variablen Summen , Produkte , etc. etc. • Ist X eine reellwertige Variable und Y = aX + b , so gilt für eine gegebene Stichprobe MY = a MX + b o n Werte von X : x1 , . . . , xn ( n Vpn ) Werte von Y dann : y1 = ax1 + b, . . . , yn = axn + b 1X 1X yi = (a xi + b) n i n i 1 X 1X 1 X 1 = a xi + b = a xi + nb n i n i n i n MY = = aMX + b 1.3 QM1_16 180 ? Beispiel für bequemere Rechnungen : ? Gesucht ist der Mittelwert von , 4020 , 4050 , 3990 Fasse Zahlen auf als Transformationen von 2 , 5 , −1 − unter der Transformation Y = 10 X + 4000 Mittelwert von 2 , 5 , −1 ist 2 → Mittelwert der Originaldaten ist 10 · 2 + 4000 = 4020 → Mittelwert von Summen • Sind X und Y reellwertige Variable und Z = X + Y , so gilt für eine gegebene Stichprobe MZ = MX + MY o n Werte von X und Y : x1 , . . . , xn bzw. y1 , . . . , yn ( n Vpn ) Werte von Z dann : z1 = x1 + y1 , . . . , zn = xn + yn 1X 1X zi = (xi + yi ) n i n i 1 X 1X = xi + yi n i n i MZ = = MX + MY ? → 1.3 Intelligenztest Z ist Summe aus zwei Untertests X , Y Mittelwert des Tests ist Summe der Mittelwerte der Untertests QM1_16 181 → ? Verallgemeinerung X und Y sind Tests von Intelligenzkomponenten − Gesamttestergebnis Z ist 2 X + 3 Y − 5 − Untertests also verschieden ‚ gewichtet ‘ − Zusätzlich Konstante ( −5 ) , − ? vielleicht für glatten Gesamtmittelwert Mittelwert von Z ? Mehrfache Anwendung der Regeln ( verschiedene Möglichkei- ten ) MZ = M (2 X + 3 Y − 5) = M ((2 X + 3 Y ) − 5) = M (2 X + 3 Y ) − 5 = M ((2 X) + (3 Y )) − 5 = M (2 X) + M (3 Y ) − 5 = 2 MX + 3 MY − 5 Insgesamt : → 1.3 MZ = M (2 X + 3 Y − 5) = 2 MX + 3 MY − 5 QM1_16 182 → Linearkombinationen ♦ Sind X1 , X2 , . . . , Xm reellwertige Variablen und a1 , a2 , . . . , am und b Zahlen , so heißt die Variable m X aj X j + b j=1 auch Linearkombination von X1 , X2 , . . . , Xm a1 , a2 , . . . , am : Koeffizienten b : additive Konstante ? Bildung des Gesamtscores eines Tests − aus mehreren Untertests Xj − mit unterschiedlichen ‚ Gewichtungen ‘ 4 Verschiedener Sprachgebrauch in der Linearen Algebra B Die ( fast ) einfachste Möglichkeit , die Xj zu kombinieren ? Verwendung beispielsweise in ‚ Regressionen ‘ ? Gesucht : Linearkombination der Schulnoten , die Studienerfolg ‚ optimal ‘ ‚ vorhersagt ‘ 1.3 QM1_16 183 → • Mittelwert von Linearkombinationen M m X ! aj X j + b j=1 ? = m X aj M (Xj ) + b j=1 M (X − Y ) = MX − MY − X − Y ist Linearkombination von X , Y − Koeffizienten : 1 , −1 ; additive Konstante : 0 4 ? ‚ Mittelwert der Differenz ist Differenz der Mittelwerte ‘ Behandlung wirkungsvoll ? Untersuchung der Änderung bei mehreren Vpn → Durchschnittliche Änderung ist Änderung der Durchschnitte → Allgemein aber : − Vorsicht bei der Bildung solcher ‚ Verdrehsätze ‘ → „ You might just as well say “ added the Dormouse , . . . „ that ‚ I breathe when I sleep “ ist the same thing as ‚ I sleep when I breathe ‘ ! “ − Lewis Carroll : Alice’s Adventures in Wonderland : A Mad Tea-Party 1.3 QM1_16 184 → Binäre Variable ♦ Eine Variable , die nur die Werte 0 und 1 annimmt , heißt auch binär • Ist X binär , so gilt MX = h(X = 1) o n → MX = 0 · h(X = 0) + 1 · h(X = 1) = h(X = 1) Mittelwerte von Funktionen von Variablen 4 Ist f lineare Transformation , so gilt Mf (X) = f (MX ) ? Gilt das auch für beliebige Funktionen ? ? f (x) = x2 ? Daten : X −1 0 1 X2 1 0 1 MX = 0 MX 2 = 2/3 → Hier also : MX 2 6= (MX )2 → Mf (X) = f (MX ) gilt also nicht allgemein 1.3 QM1_16 185 4 Der Mittelwert einer Summe ist die Summe der Mittelwerte ? Gilt Analoges auch für das Produkt ? ? Miniaturbeispiel : Vp X Y XY 1 2 0 2·0=0 2 0 2 0·2=0 MX = 1 , MY = 1 , MXY = 0 → MXY = MX MY gilt also nicht allgemein X ≥ 0 bedeutet : xi ≥ 0 für alle i X ≤ Y bedeutet : xi ≤ yi für alle i • Ist X ≥ 0 so gilt MX ≥ 0 und MX = 0 ⇔ xi = 0 für alle i • Ist X ≤ Y , so auch MX ≤ MY o n (Y − X) ≥ 0 1.3 ⇒ MY − MX = MY −X ≥ 0 ⇒ MX ≤ MY QM1_16 186 → Mittelwert bei Ordinalskalen ♦ Ordinalskalen sind Skalen , bei denen die zulässigen Skalentransformationen die streng monotonen Funktionen sind B Bei solchen Transformationen bleibt Ordnung erhalten − Ordnung ist hier das einzige Interpretierbare ? Was macht der Mittelwert bei monotonen Transformationen ? ? Gegeben : Variable X , die nur nichtnegative Werte annimmt f (x) = x2 ist dann streng monoton → ? Y = X 2 ist also eine gleichberechtigte Skala 2 Gruppen ; Werte in X und Y : X Y ? Gruppe 1 2 3 2 4 9 4 Gruppe 2 1 1 4 1 1 16 Welche Gruppe ist besser ? → Vergleich über Mittelwert Gruppe 1 : MX = 2 1/3 MY = 5 2/3 Gruppe 2 : MX = 2 MY = 6 → Für X ist Gruppe 1 besser , für Y Gruppe 2 → Mittelwert scheint hier nicht besonders sinnvoll → Mittelwert bei Ordinaldaten verbieten ? 1.3 QM1_16 187 → ♦ Median : Ein weiteres Maß der zentralen Tendenz Definition über Verfahren zur Bestimmung : Ordne Daten aufsteigend nach Größe → Der Median ist dann − der mittlere Wert ( ungerade Anzahl von Daten ) − der Mittelwert der beiden mittleren Werte ( gerade Anzahl ) Symbol : M dX B Es gibt auch andere Definitionen ? Daten : 3, 1, 2, 5, 0, 1, 5 Ordnen : 0, 1, 1, 2 , 3, 5, 5 → ? Median ist 2 Daten : 1, 3, 2, 1, 4, 1 Ordnen : 1, 1, 1 , 2 , 3, 4 → 1.3 Median ist (1 + 2)/2 = 1.5 QM1_16 188 → Eigenschaften des Medians • Mindestens 50% der Daten sind ≤ M d und mindestens 50% sind ≥ M d → Median bei monotonen Transformationen • Ist f monoton auf dem Wertebereich von X , so gilt M df (X) ≈ f (M dX ) B Bei ungerader Zahl von Daten gilt ‚ = ‘ o n Begründung wird durch Beispiele klar ? X ≥ 0 und f (x) = x2 , Y = X 2 Ungerade Anzahl von Daten : ? Daten : 3, 1, 2, 5, 0, 1, 5 Y : 9, 1, 4, 25, 0, 1, 25 geordnet : 0, 1, 1, 2 , 3, 5, 5 Y : 0, 1, 1, 4 , 9, 25, 25 Gerade Anzahl von Daten : ? Daten : X : 1, 3, 2, 1, 4, 1 geordnet : X : 1, 1, 1 , 2 , 3, 4 M dX = 1.5 (M dX )2 = 2.25 Y : 1, 9, 4, 1, 16, 1 Y : 1, 1, 1 , 4 , 9, 16 M dY = 2.5 → Immerhin : (M dX )2 und M dY beide zwischen den beiden transformierten mittleren X-Werten , in diesem Sinn ‚ ≈ ‘ 1.3 QM1_16 189 → Median und Mittelwert 4 Median verhält sich ‚ einigermaßen berechenbar ‘ bei monotonen Transformationen − Im Gegensatz zum Mittelwert → Median ist für Ordinaldaten ( womöglich ) besseres Maß der zentralen Tendenz als Mittelwert → ? Daten in Extrembereichen Daten : 1, 7, 500, 4, 3 M = 103 Md = 4 Änderung des ‚ Extremdatums ‘ ? Daten : 1, 7, 200, 4, 3 M = 43 Md = 4 B Median ist weniger anfällig für Schwankungen in Extrembereichen als Mittelwert → Vorteil oder Nachteil : je nach Untersuchungsabsichten ? Reaktionszeiten ? Einkommen 1.3 QM1_16 190 → Median , Mittelwert und Verteilungsform B Relative Lage von Median und Mittelwert kann Hinweis auf Verteilungsform geben − Bei ‚ einigermaßen symmetrischen ‘ Verteilungen sollten Mittelwert und Median etwa übereinstimmen − ? Diskrepanzen geben Hinweise auf Asymmetrie Beispiel einer asymmetrischen Verteilung mit M und M d : h .5 0 . ....... ........ .... ... .. ........................................ ... ... ... ... ... ... ... ... ... ... ... . ... . ... .. ... . ... .. ... . ... .. ... ... . .. ... ... . .. .. ... . ........................................ .. ... . ..................................... .. ... .... . ........................................ ... .. ... ... .... .. . ... ....................................... ....................................... .. .. .. ... ..................................... .................................................................................................................................................................................................................................................................................................................................................................................................................................................... ...... ...... . . ..... . ..... . .... .... ... ... .... .... x Md M ♦ Eine Verteilung mit M > M d heißt rechtsschief oder linkssteil ♦ Eine Verteilung mit M < M d heißt linksschief oder rechtssteil 4 1.3 Terminologie uneinheitlich QM1_16 191 → Modus : noch ein Maß der zentralen Tendenz ♦ Der häufigste Wert einer Verteilung heißt auch Modus B Unter Umständen gibt es mehrere Modi ? Daten : 2, 4, 3, 2, 3, 6, 4, 5, 3 → ? Modus ist 3 Daten : 2, 4, 3, 2, 3, 6, 2, 5, 3 → Modi sind 2 und 3 4 Den Modus kann man auch für qualitative Variablen bilden → Perzentile , Quartile 4 Der Wert mit Prozentrang 75 heißt auch 75. Perzentil etc. Geeignete Konventionen für ‚ Prozentrang ‘ sind nötig 25. Perzentil : 1. Quartil , 75. Perzentil : 3. Quartil 4 Median wird manchmal auch als 2. Quartil = 50. Perzentil definiert B 1.3 Andere Definition als die hier verwendete QM1_16 192 → Boxplot Überblick über die Lage der Daten Vorbereitung : Eine Alternativdefinition der Quartile − Nicht ganz äquivalent zu der Definition oben Defintion über Herstellungsverfahren : Daten ordnen , in zwei ‚ Hälften ‘ teilen − → ? Ungerade Datenzahl : Mittleren Wert verdoppeln 1. und 3. Quartil : Mediane der beiden ‚ Hälften ‘ Beispiel : gerade Anzahl von Daten : Daten 1, 7, 3, 2, 5, 8, 2, 6 geordnet 1, 2, 2, 3 , 5 , 6, 7, 8 ‚ Hälften ‘ 1, 2 , 2 , 3 5, 6 , 7 , 8 Quartile (mit Median) 2 4 6.5 ? Beispiel : ungerade Anzahl von Daten : 1, 7, 3, 2, 5, 8, 2, 6, 9 Daten geordnet 1, 2, 2, 3, 5 , 6, 7, 8, 9 ‚ Hälften ‘ 1, 2, 2 , 3, 5 5, 6, 7 , 8, 9 Quartile (mit Median) 2 5 7 1.3 QM1_16 193 → ? Boxplot , schrittweise Daten : 2 , 14 , 5 , 4 , 6 , 4 , 5 , 6 , 9 , 11 , 3 1. : Daten mit Box aus Quartilen mit Median r r r r r r r r r r r ....................................................................................................................................................................................................................................................................................................................................................................................................................................................... 0 1 x ....................................................................................................... .. .. .. .. ... .. ......................................................................................................... ..... ..... ..... . . . . . . .. . . . . . . . . ......... ....... ....... .... .... ... ... ... ... ... ... ... .. .. Median 1. Quartil 3. Quartil 2. : Normalbereich : − Box um Faktor 1.5 in beide Richtungen vergrößern 3. : Extreme Punkte im Normalbereich markieren ( ‚ Antennen ‘ ) r r r r r r .. .. .. .. .. .. .. .. .. .. .. .. . .. .... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .......................................................................... .. .. .. .. .. .. .. . . ............................................................................................................................................................................................................................................................................................................................................................................... .. .. ............................................................ .. .......................................................................................................... .. . .. .. ... . ........................................................................................................ .. .. . .. .. r 0 r r r r x 1 4. : ‚ Ausreißer ‘ als Punkte eintragen r r r r r r r r r r r ....................................................................................................................................................................................................................................................................................................................................................................................................................................................... 0 1 r ......................................................................................................... ............................................................... ........................................................................................................ .. . . ............................................................................................................... 4 Unterschiedliche Konventionen für ‚ Normalbereich ‘ 4 Gelegentlich weitere Unterteilung der ‚ Ausreißer ‘ 1.3 QM1_16 x 194 → ? Boxplots zum Gruppenvergleich Daten aus drei Gruppen ( A , B , C ) A 2, 3, 5, 4, 6, 4, 5, 6, 6, 9, 8, 14 B 1, 7, 9, 6, 8, 12, 9, 9, 16, 7, 8, 16 C 4, 5, 3, 9, 6, 5, 8, 3, 4, 2, 6 → Zum Vergleich : − Originaldaten − Boxplots ( jetzt senkrecht ) − Mittelwert ± Standardabweichung .. ....... ........ .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ................................................................................................................................ rr rr r r r 10 1 rrr rr rr rrr r rr rr r r r r r r r 1.3 10 rr rr rr rr r A B C .. ....... ........ .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ............ ... ... ... ... ... ... ... ... .. ......................... ... . .. ... .... . .. ... ... . ... ... .... ............. ............. . ... .. . .. ....................... ... .... . . .. .. ... ... . .... . .. .. ... ... ... . . . . . ... ... . . ... . . . . . . ... . . . ... ...................... ..................... ... .... .. .. ... ... ... ... .... ... ........... ... ... ... ........................ ... ........................ ... ... ... ... ... .. ... ... ... ... ......................... ... ... ... ... ... ... .......................... ... ... ... ... ... .. ... ......................... ... ... ... ... . . ... . . ... .... .... ... ............ ............ ... ... ... ... .. ................................................................................................................................ 1 r A B C 10 .. ....... ........ .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ................. ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ................ ... ... . .. ... ... . .. ... ... . .. ... ... . .. ... ... . .. ... ................ ... . .. ... ... ... . .. ... ... ... . . .. ... . ... . .. .. ... . ... . .. .. ... . ... . ................ .. ... ... . .. ... ... . .. ... ... . .. ... ... . .. ... ... . . .. ... . ................ ............... ... ... ... ... ... ... ... ... ............................................................................................................................... r r 1 r A B C QM1_16 195 → Kenngrößen für quantitative Variablen → Maße der Datenvariabilität ? → Wie stark ‚ streuen ‘ die Daten ? Varianz , Streuung ♦ Liefern n Vpn in Variable X die Werte x1 , . . . , xn mit Mittelwert MX , so heißt 2 SX n 1 X := ( xi − MX )2 n i=1 die Varianz von X , und SX q 2 := SX die Streuung oder Standardabweichung von X → 2 Statt SX gelegentlich auch : V (X) Die Varianz ist ein Mittelwert : 2 SX = M ((X − MX )2 ) → Die Eigenschaften des Mittelwerts können verwendet werden B Varianz ist mittlere quadrierte Abweichung vom Mittelwert 1.3 QM1_16 196 4 ? − ? Begriff ist zunächst nicht besonders intuitiv Warum nicht einfach mittlere Abweichung vom Mittelwert ? Die mittlere Abweichung vom Mittelwert ist immer 0 Warum nicht mittlere absolute Abweichung vom Mittelwert : n 1 X | xi − MX | n i=1 ‚ m.a.A.‘ ( vom Mittelwert ) − Damit kann man nicht so leicht rechnen − Angemessener hierbei übrigens : Median statt Mittelwert 4 Vorteil der Varianz : Enger Zusammenhang mit Kovarianz → Alternative Berechnung : • o n 2 SX = MX 2 − (MX )2 2 SX = M ( (X − MX )2 ) = M ( X 2 − 2 MX X + MX2 ) = M ( X 2 ) − M (2 MX X ) + (MX )2 = M ( X 2 ) − 2 MX M ( X ) + (MX )2 = M ( X 2 ) − 2 (MX )2 + (MX )2 = M ( X 2 ) − (MX )2 1.3 QM1_16 197 → Eigenschaften der Varianz 2 ≥ 0 SX • → Folgerung : M (X 2 ) ≥ (MX )2 • o n 2 = 0 SX ⇔ Alle Daten gleich Alle Daten sind gleich ( nämlich MX ) ⇔ Alle Daten gleich MX Die Summanden (xi − MX )2 sind alle ≥ 0 • 2 2 SaX+b = a2 SX , SaX+b = |a| SX 2 SaX+b = M (((aX + b) − M (aX + b))2 ) o n = M ((aX + b − (aMX + b))2 ) = M ((aX + b − aMX − b)2 ) = M ((a(X − MX ))2 ) = M (a2 (X − MX )2 ) 2 = a2 M ((X − MX )2 ) = a2 SX SaX+b 4 ? 1.3 √ q q 2 2 = |a| S = SaX+b = a2 SX X a2 ist |a| , nicht unbedingt a ( Beispiel : a = (−5) ! ) Varianz von 1001, 1002, 1003 ist Varianz von 1, 2, 3 QM1_16 198 • Die Varianz einer binären Variable X mit h := h(X = 1) ist 2 SX = h (1 − h) o n Hier ist X 2 = X , daher 2 SX = M (X 2 ) − (MX )2 = h − h2 = h (1 − h) ? 2 2 + SY2 ? = SX Gilt vielleicht SX+Y ? Miniatur-Gegenbeispiel : Vp X Y X + Y 1 0 2 2 2 2 2 0 → 2 2 SX = SY2 = 1 , aber SX+Y = 0 → Streuung und m.a.A. vom Mittelwert ( ‚ A ‘ ) : 4 Es gilt immer : A ≤ SX 4 Eine Umkehrung der Form SX ≤ K · A gilt für kein K → Mittelwert ± Streuung : S M S . . ..... ... ...................................................................................................................................................................................................................................................................... .... .... 4 − 1.3 t Entweder : Alle Daten liegen ‚ auf dem Rand ‘ Oder : Es gibt Daten sowohl ‚ außerhalb ‘ als auch ‚ innerhalb ‘ QM1_16 199 → ? − Markoffsche Ungleichung 5 Bekannte verdienen durchschnittlich 3 000 Einer davon verdient 20 000 ! Geht nicht ! • Ist X ≥ 0 und K > 0 , so gilt h(X ≥ K) ≤ 4 − ? Markoffsche Ungleichung Eigentlich eine ganze ‚ Familie ‘ von Ungleichungen Für jedes K eine Verdienstbeispiel ( X : Verdienst ) : Setze K = 20 000 h(X ≥ 20 000) ≤ → 1.3 MX K 3 000 = .15 20 000 Das entspricht höchstens .15 · 5 = .75 Personen ! QM1_16 200 • Ist X ≥ 0 und K > 0 , so gilt h(X ≥ K) ≤ MX K Definiere neue Variable Y durch K falls X ≥ K Y := 0 falls X < K o n ? Ein Beispiel mit K = 5 : X 1 4 7 11 3 9 2 Y 0 0 5 5 0 5 0 Y ≤ X MY ≤ MX MY = 0 · h(Y = 0) + K · h(Y = K) = K · h(X ≥ K) K · h(X ≥ K) = MY ≤ MX → 1.3 h(X ≥ K) ≤ MX K QM1_16 201 → • Eine Umformulierung ( ‚ komplementäre Aussage ‘ ) Ist X ≥ 0 und K > 0 , so gilt h(X < K) ≥ 1 − MX K h(X < K) + h(X ≥ K) = 1 o n h(X < K) = 1 − h(X ≥ K) → ? h(X < K) = 1 − h(X ≥ K) ≥ 1 − MX K Verdienstbeispiel ( X : Verdienst ) : − ? 5 Personen verdienen im Durchschnitt 3 000 Setze K = 8 000 3 000 5 = 8 000 8 5 25 Das entspricht mindestens · 5 = = 3.125 Personen 8 8 h(X < 8 000) ≥ 1 − → 1.3 Mindestens 4 verdienen weniger als 8 000 QM1_16 202 → Tschebyscheffsche Ungleichung • Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so gilt für jedes k > 0 die Beziehung h( |X − MX | ≥ k SX ) ≤ 1 k2 Tschebyscheffsche Ungleichung 4 − B − ? Wieder eine ganze Familie von Ungleichungen für jedes k eine Abschätzung der Häufigkeit von Werten ‚ weit weg ‘ von MX ‚ Weit weg ‘ : in Streuungseinheiten k = 2: ................................. S M S ................................ . .... ... . . . . . . . . . . . . . . . .......................................................................................................................... . . . . . . . . . . . . . . ... ... → ? t Höchstens 25% der Daten im schwarzen Bereich ( mit Rand ) k = 10 : .................... .................... .... .... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... ... . . → 1.3 t Höchstens 1% der Daten im schwarzen Bereich ( mit Rand ) QM1_16 203 • Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so gilt für jedes k > 0 die Beziehung h( |X − MX | ≥ k SX ) ≤ 1 k2 Setze Y := (X − MX )2 o n 2 Dann : MY = SX Ferner : Y ≥ 0 Markoffsche Ungleichung mit Y − und k 2 MY an Stelle des dortigen K h(Y ≥ k 2 MY ) ≤ MY 1 = k 2 MY k2 2 Y ≥ k 2 MY ⇔ (X − MX )2 ≥ k 2 SX ⇔ |X − MX | ≥ k SX → 1.3 h(|X − MX | ≥ k SX ) ≤ 1 k2 QM1_16 204 → Eine Umformulierung ( ‚ komplementäre Aussage ‘ ) • Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so gilt für jedes k > 0 die Beziehung 1 h( |X − MX | < k SX ) ≥ 1 − 2 k h( |X − MX | < k SX ) + h( |X − MX | ≥ k SX ) = 1 o n h( |X − MX | < k SX ) = 1 − h( |X − MX | ≥ k SX ) 1 − h( |X − MX | ≥ k SX ) ≥ 1 − → h( |X − MX | < k SX ) ≥ 1 − 1 k2 1 k2 Abschätzung der Häufigkeit von Werten ‚ nahe bei ‘ MX B − ? ‚ Nahe bei ‘ : in Streuungseinheiten k = 2: ..............................S..........M..t.........S............................... .... .... .... .... ...................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ... ... ... ... . . . . → ? Mindestens 75% der Daten im schwarzen Bereich ( ohne Rand ) k = 10 : ....................................................t.................................................. .... .... .... .... .................................................................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .................................................................. .. .. ... ... . .. . .. → 1.3 Mindestens 99% der Daten im schwarzen Bereich ( ohne Rand ) QM1_16 205 B Tschebyscheffsche Ungleichung stiftet Beziehung zwischen − Streuung einerseits − relativen Häufigkeiten von Daten andererseits → Eine Klärung des ‚ unintuitiven ‘ Streuungsbegriffs → Tschebyscheffsche Ungleichung ‚ absolut ‘ : • Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so gilt für jedes K > 0 die Beziehung 2 SX h( |X − MX | ≥ K) ≤ K2 o n Setze in der Original-Ungleichung K/SX für k ein → ‚ Komplementär ‘ dazu : • Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so gilt für jedes K > 0 die Beziehung 2 SX h( |X − MX | < K) ≥ 1 − 2 K 1.3 QM1_16 206 → Z-Transformation ♦ Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so heißt die Variable X − MX ZX := SX auch z-Transformierte von X . Für einen möglichen Wert x heißt zx := x − MX SX auch der zu x gehörende z-Wert. B ? Der z-Wert zx von x gibt an , − wie weit x von MX entfernt ist − gemessen in Standardabweichungen − Richtung entspricht Vorzeichen Mit MX = 5 und SX = 2 gilt für x = 8 8−5 3 = = 1.5 2 2 z8 = S M S 4 5 6 .. ... .................................................................................................................................................... .................................................................................................................. .. .. ... ... −1 1.3 0 1 2 3 t t 7 8 9 x QM1_16 207 → ? ? Umgekehrt : Mit MX = 5 und SX = 2 gilt für ein x : zx = −2 x = ? S M S 4 5 6 .. .. ... .. ................................................................................................................................. .................................................................................................................................................. .... .... t −1 → 0 1 3 7 8 9 x Lösung gleich allgemein : x − MX SX zx = ? 2 t ⇒ x = SX zx + MX Im Beispiel : x = 2 · (−2) + 5 = 1 → z-Transformation : Verwenden einer neuen Skala : −3 −2 −1 . 0 1 .................................t.............................. 2 z 9 x 2 z 9 x .. .. .. . . . .................................................................................................................................................................................................................................................................................................................................................................................................................................................................................. −1 0 1 2 3 4 5 6 7 8 Noch enger : −3 −2 . ... .. −1 1.3 −1 . .............................0..t..........................1.. . ... .. 0 1 2 3 . ... .. 4 5 6 7 . ... .. 8 QM1_16 208 → Eigenschaften von ZX B ZX entsteht aus X durch eine lineare Transformation : ZX = → 1 MX X − MX = X − SX SX SX ZX hat die Form a X + b − → a = 1/SX , b = −MX /SX Kennwerte von ZX • MZX = 0 , MZX = o n MX 1 MX − = 0 SX SX SZ2 X = 4 1 2 2 SX = 1 SX Mittelwert und Varianz von ZX sind ‚ einfachstmöglich ‘ − 1.3 SZ2 X = 1 ‚ Standardisierung ‘ QM1_16 209 → Vergleiche mit Hilfe von z-Werten ? A erreicht in Klausur 1 18 Punkte − B erreicht in Klausur 2 15 Punkte ? Wer ist besser ? ???? Zusatzinformation : Kennwerte der Klausuren − Klausur 1 : Mittelwert : 16 , Streuung : 4 − Klausur 2 : Mittelwert : 14 , Streuung : 1 z-Werte : A : .5 , B: 1 → ( Mit aller Vorsicht ) B ist besser B Voraussetzung für derartige Vergleiche : − 4 1.3 Die Klausurgruppen sind leistungsmäßig etwa gleich Vgl. : Vergleiche über Prozentränge QM1_16 210 → Weitere Maße der Datenvariabilität Mittlere absolute Abweichung : n 1 X | xi − MX | n i=1 − − − Passender vielleicht : M d statt M Interquartilabstand 3. Quartil − 1. Quartil Range Größter Wert − kleinster Wert B Boxplot veranschaulicht Interquartilabstand und Range 4 2 Manchmal verwendet man statt SX als ‚ Varianz ‘ auch s2X 4 ! 1.3 n 1 X := (xi − MX )2 n − 1 i=1 Rechtfertigung : Inferenzstatistik Aufpassen bei Taschenrechner oder Statistikprogrammen ! QM1_16 211 → Kovarianz , Korrelation ♣ Zwei Variablen X und Y in derselben Stichprobe erhoben − Anzahl der Vpn : n − Jede Vp i liefert zwei Werte : xi für X und yi für Y − Mittelwerte : MX und MY − 2 und SY2 Varianzen : SX ♦ In dieser Situation heißt die Zahl KovX,Y n 1 X := (xi − MX )(yi − MY ) n i=1 auch Kovarianz von X und Y ♦ Sind SX und SY beide 6= 0 , so heißt die Zahl rX,Y := KovX,Y SX SY auch Korrelation von X und Y 4 Ist SX oder SY gleich 0 , so ist rX,Y nicht definiert ♣ Generelle Voraussetzung , wenn von Korrelation die Rede ist : − 1.3 SX und SY sind 6= 0 Manchmal KovXY und rXY statt KovX,Y und rX,Y QM1_16 212 → Datendarstellung Datendarstellung als Punktwolke − Zusätzlich : Zentroid : ( MX , MY ) Y 9 8 7 6 5 4 3 2 1 0 ..... .......... ... .... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ..... ..... ... ..... ... ..... ..... ... ..... ... ..... ... ..... . ... ... ... ... ... ... ... ... ... ... ... ............................................................................................................................................................................................... r r r r ad r r r r r (MX , MY ) r 0 1 2 3 4 5 6 7 8 9 X 4 Das Zentroid kann als ‚ Schwerpunkt ‘ betrachtet werden Dem Verständnis förderlich : − Einteilung der Ebene in 4 Quadranten I–IV . ... ........ ........ .... .. .... ... ... ... ... ... ... ... ... ... .. ... ... ... ... ... .. ... ... ... . ... ... ... ... ... .. ... .. .............................................................................................................................................................................. .... .... ... ... .. ... ... ... ... ... ... ... ... ... .. ... ... ... ... ... .. ... .... ... .. ... ... ... .. ... .. ... ............................................................................................................................................................................................. .. ...... .. .... . Y 9 8 7 6 5 4 3 2 1 0 II r I r r r ad r r r r r III r IV 0 1 2 3 4 5 6 7 8 9 X 1.3 QM1_16 213 → Beiträge zur Kovarianz KovX,Y n 1 X (xi − MX )(yi − MY ) := n i=1 . .. ....... ... ......... .. .... .... ... .. ... .. ... ... ... .. ... ... ... ... ... ... ... ... ... .. ... ... ... ... ... .. ... ... .. ... .............................................................................................................................................................................. .. .... ... ... ... ... ... ... .. ... .... ... .. ... ... ... .. ... ... ... ... ... ... ... ... ... .. ... ... ... ... ... .............................................................................................................................................................................................. .. .... .. ... . Y II I q q q q ad q q q q q III q IV X Beiträge ≥ 0 in I und III − Beiträge ≤ 0 in II und IV Betragsmäßig große Beiträge durch Punkte ‚ weit im Innern ‘ Viele Punkte ‚ weit ‘ in I und III , wenige in II und IV → große positive Kovarianz Viele Punkte ‚ weit ‘ in II und IV , wenige in I und III → → − 1.3 große negative Kovarianz Kovarianz gibt Hinweis auf Form der Punktwolke wenigstens in ‚ gutartigen ‘ Fällen QM1_16 214 → → Kovarianz als Mittelwert : KovX,Y n 1 X (xi − MX )(yi − MY ) = n i=1 = M ((X − MX )(Y − MY )) → • o n Alternative Rechnung : KovX,Y = MXY − MX MY KovX,Y = M ((X − MX )(Y − MY )) = M (XY − MX Y − MY X + MX MY ) = M (XY ) − M (MX Y ) − M (MY X) + MX MY = MXY − MX MY − MY MX + MX MY = MXY − MX MY 1.3 QM1_16 215 → Berechnung von MXY auf Grund einer Kontingenztafel Mögliche Werte von X und Y : x1 . . . xI , y1 . . . yJ ! Achtung : hier : geänderte Bedeutung von ‚ xi ‘ , ‚ yj ‘ Häufigkeiten der Kombination xi , yj : − → nij ( absolut ) hij ( relativ ) MXY I J I X J X 1 XX nij = nij xi yj = x i yj n i=1 j=1 n i=1 j=1 = I X J X hij xi yj i=1 j=1 → − Spezialfall : X und Y sind ( in der Stichprobe ) unabhängig Dann : hij = hi. h.j MXY = I X J X hij xi yj = i=1 j=1 = I X J I X X hi. h.j xi yj i=1 j=1 ! hi. xi i=1 J X ! h.j yj = MX MY j=1 • Sind X und Y ( in der Stichprobe ) unabhängig , so gilt MXY = MX MY 1.3 QM1_16 216 → Eigenschaften − in vielen kleinen Schritten − Z etc. : Weitere in der Stichprobe erhobene Variable KovX,Y = 0 , falls X und Y unabhängig sind (a) o n Dann : MXY = MX MY → KovX,Y = MXY − MX MY = MX MY − MX MY = 0 ! Umkehrung gilt nicht : − 4 Aus KovX,Y = 0 folgt nicht die Unabhängigkeit Aussagen passen eher auf die theoretische Ebene KovX,Y = KovY,X (b) KovX+Z, Y = KovX,Y + KovZ,Y (c) o n M(X+Z)Y = MXY +ZY = MXY + MZY M(X+Z) MY = (MX + MZ )MY = MX MY + MZ MY KovX+Z, Y = M(X+Z)Y − M(X+Z) MY = MXY + MZY − (MX MY + MZ MY ) = MXY − MX MY + MZY − MZ MY = KovX,Y + KovZ,Y 4 1.3 KovX+Z, Y = KovX,Y + KovZ,Y : Wie ‚ Ausmultiplizieren ‘ QM1_16 217 KovX, Y +Z = KovX,Y + KovX,Z (d) o n Begründung : entweder analog zu (c) oder (b) (c) KovX, Y +Z = KovY +Z, X = KovY,X + KovZ,X (b) = KovX,Y + KovX,Z 4 Beweistechnik : ‚ Transport ‘ einer für das erste Argument von Kov bewiesenen Tatsache auf das zweite Argument 4 Dabei : Argumente von KovX,Y : X und Y Auch hier : Analogie zum ‚ Ausmultiplizieren ‘ KovaX+b, Y = a KovX,Y (e) o n M(aX+b)Y = MaXY +bY = a MXY + b MY M(aX+b) MY = (aMX + b)MY = a MX MY + b MY KovaX+b, Y = M(aX+b)Y − MaX+b MY = a MXY + b MY − (a MX MY + b MY ) = a MXY − a MX MY = a ( MXY − MX MY ) = a KovX,Y 1.3 4 ‚ Ausklammern ‘ von a 4 Konstante b fällt weg QM1_16 218 KovX, cY +d = c KovX,Y (f ) o n Analog (e) oder mit (e) und (b) wie bei (d) 4 ‚ Ausklammern ‘ von c , Konstante d fällt weg KovaX+b, cY +d = ac KovX,Y (g) o n Nacheinander (e) und (f ) 2 = KovX,X SX (h) 4 Wesentlicher Vorzug der Varianz als Variabilitätsmaß : − Zusammenhang mit der Kovarianz − Kovarianzeigenschaften können genutzt werden → Vgl. die folgenden Eigenschaften 2 2 SX+Y = SX + SY2 + 2 KovX,Y (i) o n (h) (c) 2 SX+Y = KovX+Y, X+Y = KovX,X+Y + KovY,X+Y (d) = KovX,X + KovX,Y + KovY,X + KovY,Y (b) = KovX,X + KovY,Y + KovX,Y + KovX,Y (h) 2 = SX + SY2 + 2 KovX,Y 4 1.3 Assoziation : Binomische Formel QM1_16 219 2 2 2 2 2 SaX+bY +c = a SX + b SY + 2 ab KovX,Y (j) (i) 2 2 2 2 SaX+bY +c = SaX+bY = SaX + SbY + 2 KovaX, bY o n (g) 2 = a2 SX + b2 SY2 + 2 ab KovX,Y 4 ? Assoziation : Binomische Formel Spezialfall : 2 2 + SY2 − 2 KovX,Y = SX SX−Y KovX,Y = rX,Y SX SY (k) rX,Y = rY,X (l) o n (b) ( raX+b, cY +d = (m) raX+b, cY +d = o n B rX,Y falls ac > 0 −rX,Y falls ac < 0 KovaX+b, cY +d SaX+b ScY +d = ac KovX,Y |a| SX |c| SY = ac KovX,Y ac · = rX,Y |a| |c| SX SY |ac| (g) Bei linearen Transformationen von X und Y : − 1.3 höchstens Vorzeichenwechsel der Korrelation QM1_16 220 rX,Y = rZX ,ZY = KovZX ,ZY (n) rZX ,ZY = rX,Y : o n − (m) , (1/SX )(1/SY ) > 0 rZX ,ZY = KovZX ,ZY : SZX = SZY = 1 rX,Y ≤ 1 (o) ⇔ rX,Y = 1 (∗) Y = aX + b für ein a > 0 (j) 0 ≤ SZ2 X −ZY = SZ2 X + SZ2 Y − 2 KovZX , ZY o n (n) = 1 + 1 − 2 rX,Y = 2 − 2 rX,Y rX,Y ≤ 1 → ‚ = ‘ : ‚ ⇒ ‘ : Gelte also rX,Y = 1 Dann muss ‚ = ‘ bei (∗) gelten ZX − ZY = c (konstant) ZY = ZX − c Y /SY − MY /SY = X/SX − MX /SX − c → Y = (SY /SX ) X + . . . (additive Konstante) ‚ = ‘ : ‚ ⇐ ‘ : Gelte also Y = aX + b mit a > 0 → (m) rX,Y = rX,aX+b = rX,X 2 KovX,X (h) SX = 2 = 1 = SX SX SX 1.3 QM1_16 221 rX,Y ≥ −1 (p) rX,Y = −1 o n ⇔ Y = aX + b für ein a < 0 Wie (o) mit ZX + ZY statt ZX − ZY −1 ≤ rX,Y ≤ 1 (q) rX,Y = ±1 ⇔ Y = aX + b für ein a 6= 0 Vorzeichen von r dann gleich Vorzeichen von a − o n X , Y unabhängig ⇒ rX,Y = 0 (o) , (p) , (a) | KovX,Y | ≤ SX SY (r) − − ‚ = ‘ genau bei ‚ perfektem linearen Zusammenhang ‘ ‚ Perfekter linearer Zusammenhang ‘ : Y = aX + b oder X = aY + b (q) | KovX,Y | = | rX,Y | ≤ 1 SX SY o n Behauptung dann mit (q) Leichte Zusatzüberlegungen : − Behauptung gilt auch für SX = 0 oder SY = 0 1.3 QM1_16 222 (s) Die Variablen X und Y seien binär mit Kontingenztafel X\Y 0 1 0 h11 h12 h1. 1 h21 h22 h2. h.1 h.2 1 → Dann gilt : KovX,Y = h11 h22 − h12 h21 KovX,Y = MXY − MX MY = h22 − h2. h.2 o n = h22 − (h21 + h22 ) (h12 + h22 ) = h22 − h21 h12 − h21 h22 − h22 h12 − h222 = h22 (1 − h21 − h12 − h22 ) − h21 h12 = h22 h11 − h21 h12 (t) Sind X und Y binär , so gilt rX,Y = o n 1.3 (s) h11 h22 − h12 h21 √ , h1. h2. h.1 h.2 ( ‚ r2 = ϕ2 ‘ : Übung ) 2 rX,Y = ϕ2 QM1_16 223 (u) Ist X = a1 X1 + a2 X2 + b und Y = c1 Y1 + c2 Y2 + d , so gilt KovXY = a1 c1 KovX1 Y1 + a1 c2 KovX1 Y2 + a2 c1 KovX2 Y1 + a2 c2 KovX2 Y2 o n (c) , (d) , (g) 4 Assoziation : ‚ Ausmultiplizieren ‘ 4 Additive Konstanten fallen weg B Rechenschema ( mit kij := KovXi Yj ) : a1 a2 c1 c2 k11 k12 k21 k22 Zahlen in ‚ Matrix ‘ mit Zahlen am Rand multiplizeren → 4 Aufsummieren Einführung von Abkürzungen : ! k11 k12 K = , a = k21 k22 a1 a2 ! , c = c1 c2 ! Abkürzende Schreibweise : KovX,Y = a0 Kc B 1.3 ( Matrizenrechnung ) QM1_16 224 (v) Ist X = I X ai Xi + b und Y = i=1 J X cj Yj + d , so gilt j=1 KovXY = I X J X ai cj KovXi Yj i=1 j=1 o n Verallgemeinerung von (u) 4 Kovarianz von zwei Linearkombinationen Ausführliche Schreibweise : Kov I X ai X i + b , i=1 ! cj Yj + d = J I X X ai cj KovXi Yj i=1 j=1 j=1 4 Wieder Assoziation ‚ Ausmultiplizieren ‘ 4 Rechenschema , ‚ Matrizenschreibweise ‘ : − wie im ‚ (2 × 2)-Fall ‘ 4 Rechenschema : Eher zur Veranschaulichung der Aufgabe B Praktisches Rechnen : u.U. anders gruppieren , z.B. : I X J X i=1 J=1 1.3 J X ai cj KovXi Yj = I X i=1 ai J X ! cj KovXi Yj j=1 QM1_16 225 (w) Ist U = m X ai Xi + b und V = i=1 m X ci Xi + d , so gilt i=1 KovU V = m X m X ai cj KovXi Xj i=1 j=1 o n Spezialfall von (v) 4 Wieder : Kovarianz von zwei Linearkombinationen − Hier speziell : Linearkombinationen derselben Xi B Beachte : Ein Index muss umbenannt werden 4 Beachte : − 2 KovXi Xi = SX i − KovXi Xj = KovXj Xi → Spezialfall : V = U SU2 = m X i=1 2 a2i SX i + 2 X ai aj KovXi Xj i<j 4 Zusammenfassend zu den Eigenschaften der Kovarianz : → Viele Formulierungen sind nun ‚ redundant ‘ ? 1.3 (c) , (d) , (e) , (f ) , (g) , (u) , (w) : alle in (v) enthalten QM1_16 226 → ? Kovarianzmatrizen , Korrelationsmatrizen In einer Miniaturstichprobe werden drei Variablen erhoben Vp X1 X2 X3 1 8 3 2 2 7 8 0 3 8 3 2 4 10 5 0 5 −5 2 0 6 8 3 2 Berechnung von Varianzen und Kovarianzen → Zweckmäßigerweise übersichtliche Anordnung in einer ‚ Matrix ‘ : 25 4 2 4 4 −1 2 −1 1 In Zeile i , Spalte j : KovXi Xj → Kovarianzmatrix 2 In der ‚ Diagonale ‘ : KovXi Xi = SX i Es gilt : KovXi Xj = KovXj Xi 1.3 Die Matrix ist symmetrisch QM1_16 227 ♦ Sind m Variablen X1 , . . . Xm in worden , so heißt die Matrix KovX1 X1 KovX1 X2 Kov X2 X1 KovX2 X2 .. .. . . KovXm X1 KovXm X2 einer Stichprobe erhoben . . . KovX1 Xm . . . KovX2 Xm .. ... . . . . KovXm Xm auch Kovarianzmatrix von X1 , . . . Xm B In der Diagonale stehen die Varianzen Kovarianzmatrix ist daher 2 SX KovX1 X2 1 Kov 2 SX X2 X1 2 . . . . . . KovXm X1 KovXm X2 4 − . . . KovX1 Xm . . . KovX2 Xm .. ... . 2 ... SX m Wegen KovXi Xj = KovXj Xi : Kovarianzmatrizen sind symmetrisch 4 Kovarianzmatrix spielen zentrale Rolle in der Multivariaten Statistik ! Manchmal enthalten ‚ Kovarianzmatrizen ‘ die ‚ korrigierten Stichprobenkovarianzen ‘ statt der Kovarianzen − 1.3 Division durch (n − 1) statt durch n QM1_16 228 ♦ Sind m Variablen X1 , . . . Xm in einer Stichprobe erhoben worden , so heißt die Matrix rX1 X1 rX1 X2 . . . rX1 Xm r X2 X1 rX2 X2 . . . rX2 Xm .. .. .. ... . . . rXm X1 rXm X2 . . . rXm Xm auch Korrelationsmatrix von X1 , . . . Xm In der Diagonale stehen Einsen ( rXi Xi ist immer 1 ) B Korrelationsmatrix ist daher 1 rX1 X2 r 1 X2 X1 .. .. . . rXm X1 rXm X2 . . . rX1 Xm . . . rX2 Xm .. ... . ... 1 4 Korrelationsmatrizen sind symmetrisch 4 Es gibt auch noch die ‚ SSCP-Matrizen ‘ − ? Vorstufe zu Kovarianzen : Keine Division durch n ‚ Sum of Squares and Cross Products ‘ Kovarianz- , Korrelations 25 4 2 1 4 4 −1 .4 2 −1 1 .4 1.3 und SSCP-Matrix im Beispiel : .4 .4 150 24 12 1 −.5 24 24 −6 −.5 1 12 −6 6 QM1_16 229 Kennwerte von Zufallsvariablen. 4 Analoge Begriffsbildungen wie in Deskriptiver Statistik ? Theoretische Gegenstücke zu Mittelwert , Varianz , . . . B Formal analoge Eigenschaften → Erwartungswert ♦ Ist X : Ω → R eine reelle Zva auf einem endlichen W-Raum < Ω, P > mit W-Funktion f , so heißt die Zahl X E(X) := X(ω) f (ω) ω∈Ω auch Erwartungswert von X Symbol für Erwartungswerte : Oft µ ? Gewinnspiel mit fairem Würfel , X ; ‚ Nettogewinn ‘ − X : 1 7→ 0 , → E(X) = 0 · 2, 3, 5 7→ 2 , 4, 6 7→ −3 1 1 1 1 1 1 + 2 · + 2 · + (−3) · + 2 · + (−3) · 6 6 6 6 6 6 = 0 4 1.4 Rechnung womöglich etwas umständlich (?) QM1_16 230 ? − Dasselbe Gewinnspiel : X : 1 7→ 0 , 2, 3, 5 7→ 2 , 4, 6 7→ −3 Jetzt aber mit gezinktem Würfel : W-Funktion : − f : 1, 2, 3, 4, 5 7→ .1 , 6 7→ .5 → E(X) = 0 · (.1) + 2 · (.1) + 2 · (.1) + (−3) · (.1) + 2 · (.1) + (−3) · (.5) = −1.2 B − 4 Hier ist E(X) kein möglicher Wert Also auch keiner , den man erwarten kann Erwartungswert ist so etwas wie Durchschnitt auf lange Sicht Führe Experiment sehr oft durch ( N Mal ) Häufigkeit des Ergebnisses ω : etwa N f (ω) → Mittelwert der Werte von X dann X 1 X X(ω) N f (ω) = X(ω) f (ω) = E(X) MX ≈ N ω∈Ω → 1.4 ω∈Ω Das erste Gewinnspiel ist ‚ fair ‘ , das zweite nicht ‚ Fair ‘ : Erwartungswert des Nettogewinns ist 0 QM1_16 231 → • Alternative Berechnung X E(X) = x P(X = x) = E(X) = X X(ω)f (ω) = X X x ω∈Ω = X x x = X f (ω) x fX (x) X(ω)f (ω) ω∈Ω X(ω)=x = X x P(X = x) x ω∈Ω X(ω)=x X xfX (x) x x o n X x ? Gewinnspiel mit unfairem Würfel : x −3 0 2 fX (x) .6 .1 .3 → E(X) = X x fX (x) x = (−3) · (.6) + 0 · (.1) + 2 · (.3) = −1.2 4 − E(X) ist gewichtetes Mittel der Werte von X Gewichte : Werte der W-Funktion fX 4 Vgl. Formel für Mittelwert mit relativen Häufigkeiten P − M = wj hj − 1.4 Relative Häufigkeiten ↔ Wahrscheinlichkeiten QM1_16 232 → ? Erwartungswert von Funktionen von X 2 E(X ) = X X 2 (ω) f (ω) ω∈Ω ? − Gewinnspiel mit gezinktem Würfel , Gewinn X : X : 1 7→ 0 , 2, 3, 5 7→ 2 , 4, 6 7→ −3 W-Funktion : − f : 1, 2, 3, 4, 5 7→ .1 , 6 7→ .5 → E(X 2 ) = 02 · (.1) + 22 · (.1) + 22 · (.1) + (−3)2 · (.1) + 22 · (.1) + (−3)2 · (.5) = 0 + .4 + .4 + .9 + .4 + 4.5 = 6.6 → Allgemein : E(h(X)) = X h(X(ω)) f (ω) ω∈Ω 4 1.4 Hierbei braucht X nicht reellwertig zu sein QM1_16 233 → • Alternativschreibweise mit fX E(h(X)) = X h(x) fX (x) = X x x o n E(h(X)) = X h(X(ω))f (ω) = X X x ω∈Ω = X h(x) x = X h(x) P(X = x) X f (ω) ω∈Ω X(ω)=x = X h(x) P(X = x) x ω∈Ω X(ω)=x h(x) fX (x) h(X(ω))f (ω) x ? Gewinnspiel mit unfairem Würfel : x −3 0 2 fX (x) .6 .1 .3 → E(X 2 ) = X x2 fX (x) x = (−3)2 · (.6) + 02 · (.1) + 22 · (.3) = 5.4 + 0 + 1.2 = 6.6 1.4 QM1_16 234 → Regeln 4 Analog zu Regeln über den Mittelwert • o n Ist X(ω) = c für alle ω ∈ Ω , so gilt E(X) = c E(X) = X c f (ω) = c o n f (ω) = c · 1 = c ω∈Ω ω∈Ω • X E (a X + b) = a E(X) + b E (a X + b ) = X = X (a X(ω) + b) f (ω) ω∈Ω a X(ω) f (ω) + ω∈Ω = a X X ω∈Ω X(ω) f (ω) + b ω∈Ω = a E(X) + b • o n b f (ω) X f (ω) ω∈Ω E (X ± Y ) = E(X) ± E(Y ) E (X ± Y ) = X = X (X(ω) ± Y (ω)) f (ω) ω∈Ω X(ω) f (ω) ± ω∈Ω = E(X) ± E(Y ) 1.4 X Y (ω) f (ω) ω∈Ω QM1_16 235 → Regeln m X E • ! aj X j + b = j=1 m X aj E(Xj ) + b j=1 o n Geeignete Kombination früherer Regeln • Ist X binär , P(X = 1) = p , so E(X) = p o n E(X) = 0 · P(X = 0) + 1 · P(X = 1) = P(X = 1) = p X ≥ 0: X(ω) ≥ 0 für alle ω ∈ Ω X ≤ Y : X(ω) ≤ Y (ω) für alle ω ∈ Ω • Ist X ≥ 0 , so E(X) ≥ 0 E(X) = o n X etc. etc. X(ω) f (ω) ω∈Ω Alle Summanden sind ≥ 0 → Also ist auch die Summe ≥ 0 • Ist X ≤ Y , so E(X) ≤ E(Y ) o n X ≤ Y ⇒ Y −X ≥ 0 E(Y ) − E(X) = E(Y − X) ≥ 0 → E(X) ≤ E(Y ) 1.4 QM1_16 236 Erinnerung : Beim Mittelwert gilt − Ist X ≥ 0 und MX = 0 , so gilt xi = 0 für alle i ? Hat der Erwartungswert die gleiche Eigenschaft ? ? Beispiel : ω a b c d f (ω) .5 0 .5 0 X(ω) 0 7 0 13 X ≥ 0 und E(X) = 0 · (.5) + 7 · 0 + 0 · (.5) + 13 · 0 = 0 → Also : E(X) = 0 , ohne dass X überall 0 ist → Das Problem liegt bei b und d 4 Immerhin : Die W. für die ‚ Ausnahmesituation ‘ {b, d} ist 0 − 1.4 Oder anders : Die W. für den ‚ Normalfall ‘ ist 1 QM1_16 237 → ‚ Fast sicher ‘ ♦ Eine Eigenschaft liegt fast sicher ( f.s. ) vor , falls die Wahrscheinlichkeit , dass sie vorliegt , gleich 1 ist 4 Anders formuliert : − Die Wahrscheinlichkeit von ‚ Ausnahmen ‘ ist 0 ? Im Beispiel gilt X = 0 ( f.s. ) • Ist X ≥ 0 und E(X) = 0 , so gilt X = 0 ( f.s. ) o n Ist E(X) = 0 , so X X(ω) f (ω) = 0 ω∈Ω Dann müssen alle Summanden 0 sein Ist X(ω) 6= 0 , so muss f (ω) = 0 gelten → • o n P( {ω ∈ Ω | X(ω) 6= 0} ) = 0 Ist X = c f.s. , so gilt E(X) = c E(X) = X x P(X = x) x = c · P(X = c) + 0 + · · · + 0 = c· 1 = c 1.4 QM1_16 238 → • Markoffsche Ungleichung Ist X ≥ 0 und K > 0 , so gilt P(X ≥ K) ≤ E(X) K Definiere neue Variable Y durch K falls X ≥ K Y := 0 falls X < K o n Y ≤ X E(Y ) ≤ E(X) E(Y ) = 0 · P(Y = 0) + K · P(Y = K) = K · P(X ≥ K) K · P(X ≥ K) = E(Y ) ≤ E(X) → 4 − • P(X ≥ K) ≤ 1.4 Alles genau wie im deskriptiven Fall bis auf M ↔ E , h ↔ P Umformulierung : Ist X ≥ 0 und K > 0 , so gilt P(X < K) ≥ 1 − o n E(X) K Genau wie im deskriptiven Fall E(X) K QM1_16 239 → Erwartungswert eines Produkts • Ist f(X,Y ) die W-Funktion der gemeinsamen Verteilung von X und Y , so gilt X E(XY ) = xy f(X,Y ) (x, y) x,y Ist h(x, y) := xy , so XY = h(X, Y ) o n → • Formel ist Alternativschreibweise für E(h(X, Y )) Sind X und Y unabhängig , so gilt E(XY ) = E(X) E(Y ) Hier ist f(X,Y ) (x, y) = fX (x) fY (y) o n → E(XY ) = X xy f(X,Y ) (x, y) x,y = X xy fX (x)fY (y) x,y ! = X ! X x fX (x) x = E(X) E(Y ) 1.4 y fY (y) y QM1_16 240 → ‚ Populationsmittelwert ‘ B Oft wird das Wort ‚ Populationsmittelwert ‘ verwendet 4 Bedeutung manchmal nicht ganz klar 4 Häufig wohl synonym zu ‚ Erwartungswert ‘ B Problematisch , da − ‚ Mittelwert ‘ zunächst auf die deskriptive Ebene gehört − entsprechende Assoziationen geweckt werden − zum Erwartungswert ein W-Maß gehört 4 Sinnvoll vielleicht dann , wenn aus einer endlichen Population zufällig gezogen wird ( gleiche W. für alle Mitglieder ) → Bezeichnung ( ‚ Populationsmittelwert ‘ für / statt ‚ Erwartungswert ‘ ) ist ( oberflächlich ) eingängig → Bei genauem Hinsehen aber oft verwirrend ? Kann man immer sinnvoll von einer Population sprechen ? ? Reaktionszeiten einer festen Vp 1.4 QM1_16 241 → Kennwerte von Zufallsvariablen : Varianz , Streuung ♦ Ist X : Ω → R eine reelle Zva auf einem endlichen W-Raum mit E(X) = µ , so heißt die Zahl V(X) := E (X − µ)2 p V(X) aus der Varianz auch Varianz von X . Die Wurzel heißt auch Streuung oder Standardabweichung Bezeichnung der Streuung von X : Gelegentlich auch σ(X) Symbol für Varianzen oft σ 2 ( Streuung dann σ ) 4 Begriffsbildung parallel zur Varianz der deskriptiven Statistik : 2 SX = M(X−MX )2 Eigenschaften weitgehend ‚ übertragbar ‘ Begründungen ebenso ( bei geeigneten ‚ Übersetzungsregeln ‘ ) → ? o n ‚ Übersetzungsregeln ‘ : M ↔ E , h ↔ P Beispiel : Alternativformel : V(X) = E(X 2 ) − µ2 V(X) = E ( (X − µ)2 ) = E ( X 2 − 2 µ X + µ2 ) = E ( X 2 ) − E (2 µ X ) + µ2 = E ( X 2 ) − 2 µ E ( X ) + µ2 = E ( X 2 ) − 2 µ2 + µ2 = E ( X 2 ) − µ2 1.4 QM1_16 242 ? − Gewinnspiel mit gezinktem Würfel , Gewinn X : X : 1 7→ 0 , 2, 3, 5 7→ 2 , 4, 6 7→ −3 W-Funktion : − f : 1, 2, 3, 4, 5 7→ .1 , 6 7→ .5 Schon berechnet : E(X) = −1.2 , E(X 2 ) = 6.6 → V(X) = E(X 2 ) − (E(X))2 = 6.6 − 1.44 = 5.16 → Eigenschaften B Begründungen weitgehend wie bei deskriptiver Varianz • V(X) ≥ 0 • Folgerung : E(X 2 ) ≥ (E(X))2 • V(X) = 0 ⇔ X ist f.s. konstant ( = µ ) 4 Hier Abweichung vom deskriptiven Fall ( ‚ f.s. ‘ ) X ist f.s. konstant : − Es gibt eine Konstante c mit P(X = c) = 1 4 Diese Konstante c ist dann gleich E(X) = µ 1.4 QM1_16 243 • V(X) = 0 ⇔ X ist f.s. konstant ( = µ ) o n ‚ ⇒ ‘ : Es gelte also V(X) = E((X − µ)2 ) = 0 (X − µ)2 ist ≥ 0 Aus E((X − µ)2 ) = 0 folgt daher : (X − µ)2 = 0 f.s. → Also X − µ = 0 f.s. , also X = µ f.s. ‚ ⇐ ‘ : Es gelte also X = c f.s. E(X) = c , also c = µ X 2 = c2 f.s. , also E(X 2 ) = c2 → • V(X) = E(X 2 ) − (E(X))2 = c2 − c2 = 0 V(aX + b) = a2 V(X) , σ(aX + b) = | a | σ(X) o n Wie im Deskriptiven • Ist X binär , P(X = 1) = p , so V(X) = p (1 − p) o n Wie im Deskriptiven Oft 1 − p =: q , dann : V(X) = pq 1.4 QM1_16 244 → Tschebyscheffsche Ungleichung • Ist X reelle Zva mit Erwartungswert µ und Streuung σ > 0 , so gilt für jedes k > 0 die Beziehung P( |X − µ| ≥ k σ) ≤ o n Wie im Deskriptiven • ‚ Komplementär ‘ : 1 k2 P( |X − µ| < k σ) ≥ 1 − 1 k2 In ‚ absoluten Einheiten ‘ : • Ist X reelle Zva mit Erwartungswert µ und Streuung σ > 0 , so gilt für jedes K > 0 die Beziehung σ2 P( |X − µ| ≥ K) ≤ K2 • ‚ Komplementär ‘ : σ2 P( |X − µ| < K) ≥ 1 − 2 K 1.4 QM1_16 245 → Z-Transformation ♦ Ist X reelle Zva mit Erwartungswert µ und Streuung σ > 0 , so heißt die Zva X −µ ZX := σ auch z-Transformierte von X . Für einen möglichen Wert x heißt zx := x−µ σ auch der zu x gehörende z-Wert. • E(ZX ) = 0 , V(ZX ) = 1 o n Wie im Deskriptiven 4 Bemerkungen zur Notation : Weitgehend gilt : Griechische Buchstaben : Theoretische Größen ( ‚ Parameter ‘ ) ? µ, σ Lateinische Buchstaben : Empirische Größen ? M, S 1.4 QM1_16 246 → Kovarianz , Korrelation ♦ Sind X und Y reelle Zvan auf demselben ( endlichen ) W-Raum mit E(X) =: µX , E(Y ) =: µY , so heißt Kov(X, Y ) := E ((X − µX )(Y − µY )) auch Kovarianz von X und Y ♦ Sind außerdem die Streuungen σX von X und σY von Y beide 6= 0 , so heißt die Zahl ρ(X, Y ) := Kov(X, Y ) σ X σY auch Korrelation von X und Y Symbol für ( theoretische ) Korrelationen : Meist ρ 4 Begriffsbildung wie im Deskriptiven 4 Leider ähnliche Notation für empirischen und theoretischen Fall B Auch Bezeichnungen oft gleich ( ‚ Varianz ‘ , ‚ Kovarianz ‘ , . . . ) B Bei Verwendung von Korrelationen : − 1.4 Stillschweigende Voraussetzung : σX 6= 0 , σY 6= 0 QM1_16 247 → Eigenschaften 4 Alles ( auch Begründungen ) ganz wie im deskriptiven Fall • • Kov(X, Y ) = E(XY ) − E(X) E(Y ) Sind X und Y unabhängig , so gilt Kov(X, Y ) = 0 4 − Aussage ‚ passt ‘ hierher ( theoretische Ebene ) Analoge empirische Aussage ist nicht so sinnvoll • Kov(X, Y ) = Kov(Y, X) • Kov( aX + b , c Y + d ) = ac Kov(X, Y ) • Kov( X + Y , U + V ) = Kov(X, U ) + Kov(X, V ) + Kov(Y, U ) + Kov(Y, V ) • Kov I X i=1 ai X i + b , J X cj Yj + d = j=1 I X J X ai cj Kov(Xi , Yj ) i=1 j=1 1.4 QM1_16 248 → Weitere Eigenschaften • V(X) = Kov(X, X) • V(X ± Y ) = V(X) + V(Y ) ± 2 Kov(X, Y ) • V(aX + bY + c) = a2 V(X) + b2 V(Y ) + 2 ab Kov(X, Y ) • Kov(X, Y ) = ρ(X, Y ) σX σY ( • ρ(aX + b, c Y + d) = • ρ(X, Y ) falls ac > 0 −ρ(X, Y ) falls ac < 0 ρ(X, Y ) = ρ(ZX , ZY ) = Kov(ZX , ZY ) • −1 ≤ ρ(X, Y ) ≤ 1 ρ(X, Y ) = ±1 ⇔ Y = aX + b f.s. für ein a 6= 0 Vorzeichen von ρ dann gleich Vorzeichen von a • | Kov(X, Y ) | ≤ σX σY 4 Etc. etc. 4 Kovarianzmatrizen und Korrelationsmatrizen − 1.4 ganz wie im deskriptiven Fall QM1_16 249 Regression. → ? Vorübung An n Personen wurde Größe Y gemessen − Werte : y1 , . . . , yn − Einzeldaten sind verloren − Kennwerte M , S 2 , Median , . . . ? → sind erhalten Gesucht : Größe einer der Personen Genauer : ‚ Beste Vermutung ‘ Was soll hier ‚ beste ‘ heißen ? − Zunächst : Keine klare Bedeutung Ungefähr : − Vermutung soll ‚ möglichst nahe ‘ am tatsächlichen Wert liegen ‚ Möglichst nahe ‘ : auch unklar Daher : Bedeutungsverleihung durch Präzisierung 1.5 QM1_16 250 → Beste Vermutung über verlorene Daten → Gesucht : ‚ Optimale ‘ Vermutung a → ‚ Optimalität ‘ muss präzisiert werden Mehrere Möglichkeiten ? Naheliegend : − Vermutung soll im Durchschnitt möglichst nahe am Ziel liegen − Genauer dann wohl : − Mittlere absolute Abweichung soll minimal werden → − → − ? − Forderung dann : 1 X |yi − a| soll minimal werden n i Hier ist der Median eine Lösung für a Unter Umständen : Eine von vielen – unschön ! Weitere Möglichkeit der Präzisierung : Durchschnittliche quadrierte Abweichung soll minimal werden Zunächst weniger einleuchtend – trotzdem . . . 1.5 QM1_16 251 → Beste Vermutung über verlorene Daten → Gesucht : ‚ Optimale ‘ Vermutung a → ‚ Optimalität ‘ muss präzisiert werden ? Möglichkeit der Präzisierung : − Durchschnittliche quadrierte Abweichung soll minimal werden − Formal : 1 X (yi − a)2 = M ((Y − a)2 ) soll minimal werden n i Kleine Rechnung : M ((Y − a)2 ) = M (((Y − MY ) + (MY − a))2 ) = M ((Y − MY )2 + 2(Y − MY )(MY − a) + (MY − a)2 ) = M ((Y − MY )2 ) + M (2(Y − MY )(MY − a)) + (MY − a)2 = SY2 + 2(MY − a)M (Y − MY ) + (MY − a)2 = SY2 + 2(MY − a) · 0 + (MY − a)2 = SY2 + (MY − a)2 ≥ SY2 → Minimum wird genau erreicht für a = MY − Jetzt ist also der Mittelwert die ‚ beste Vermutung ‘ − Der ist auch immer eindeutig – schön ! 4 Minimale durchschnittliche quadrierte Abweichung ist SY2 B Je nach Präzisierung : Unterschiedliche ‚ beste Vermutung ‘ 1.5 QM1_16 252 → Regression → Ziel : − ‚ Vorhersage ‘ einer Variable Y durch eine Variable X → Beispiele : ? Y : Diplomnote , X : Abiturnote ? Y : Ergebnis Klausur 2 , X : Ergebnis Klausur 1 ? Y : Hilfsbereitschaft , X : Stimmung − → geeignet operationalisiert Form der Vorhersagegleichung : y = bx + a B ( Fast ) einfachstmöglich – Geradengleichung → Aufgabe : − Finde b und a so , dass Vorhersage möglichst ‚ gut ‘ wird X : Prädiktor Y : Kriterium Sprechweise : Regression von Y auf X 1.5 QM1_16 253 → Gesucht : beste Vorhersage Wie so oft : → Bezeichnungen etwas irreführend ♣ Situation : Beide (!) Variablen liegen in einer Stichprobe vor → Daher : Eher ‚ Rekonstruktion ‘ von Y als ‚ Vorhersage ‘ ? Vielleicht auch : − Beide Variablen lagen einmal in einer Stichprobe vor − Kennwerte wurden berechnet − Die Daten von Y sind verloren gegangen − Noch vorhanden sind die Daten von X und die Kennwerte → − Gesucht dann : ‚ Beste Vermutung ‘ über den Y -Wert einer Person Zur Verfügung stehen : X-Wert und Kennwerte → 1.5 Hier ist Ausdruck ‚ Rekonstruktion ‘ passend QM1_16 254 → ‚ Beste Vorhersage ‘ 4 Manchmal ist Ausdruck ‚ Vorhersage ‘ gerechtfertigt Eine Voraussetzung dafür beispielsweise : − ? Stichprobenverhältnisse können als ‚ repräsentativ ‘ gelten Beispiel : X : Abiturnote , Y : Diplomnote Große repräsentative Stichprobe aus einem Jahrgang Erhebung von X und Y Ermittlung der hier optimalen ‚ Vorhersagegleichung ‘ Später ( anderer Jahrgang ) − ? → Keine Veränderungen in relevanten Umständen wie : Ausbildungssystem , Verteilung von Studienplätzen . . . Naheliegend : − Gefundene Gleichung für Vorhersagen zu benutzen − ‚ Vorhersage ‘ jetzt im üblichen Wortsinn 1.5 QM1_16 255 → Bedeutung von ‚ Vorhersage ‘ im allgemeinen Fall ‚ Vorhersage ‘ legt Assoziationen nahe : − Zeitliche Reihenfolge , womöglich ‚ kausale ‘ ‚ Einflüsse ‘ → Diese Assoziationen sind ( allgemein ) unangebracht − Jedenfalls nicht durch statistische Prozedur gerechtfertigt 4 In Einzelfällen können sie angemessen sein B Im allgemeinen Fall aber : − Statistik kann auch hier keine Kausalinterpretationen begründen 4 Immerhin : ‚ Stützung ‘ möglich − Eigentliche Rechtfertigung aber außerhalb der Statistik ? ? Beispielsweise durch experimentelle Anordnungen Beispiel zu ‚ zeitliche Reihenfolge ‘ − 1.5 ‚ Vorhersage ‘ der Leistung in früherer Klausur durch spätere − Mögliche Anwendung des statistischen Verfahrens − Kann auch sinnvoll sein ( Fehlen bei Klausur 1 ) QM1_16 256 → Regression hier ‚ nur ‘ deskriptiv − Nur Auffinden der ‚ optimalen ‘ Vorhersagefunktion 4 Es gibt auch eine Regression in der Inferenzstatistik − Verfahren anfangs wie hier → Zusätzlich aber : Testen von theoretischen Vorstellungen möglich → Voraussetzung dafür : − Glaube an bestimmte Modellvoraussetzungen → ♣ Allgemeines Lineares Modell ( ALM ) Situation : − Werte von zwei Variablen X und Y liegen vor − ( beide ) erhoben an n Vpn − Werte : x1 . . . xn bzw. y1 . . . yn ? Miniaturbeispiel : 3 Vpn Vp 1 2 3 1.5 X 2 4 3 Y 2 4 6 QM1_16 257 Miniaturbeispiel : Vp 1 2 3 X 2 4 3 Y 2 4 6 Graphische Darstellung : Y . ....... .......... ... .... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ................................................................................................................................................................ .... r r r 1 X 1 Daten mit einer möglichen ‚ Vorhersagegerade ‘ : ..... .......... ... .... .. ... ... . ....... ... ....... ....... ... .. ....... . . .. . . ... . . ..... .. ... ....... .. ........ ... . ............ .... ... ....... . . . . . ... . . . ... ... ....... ... ....... ... .. ....... . ....... .. ... .. ....... . . . . . ... . . . . . ................. . . . . . . . . . . . ..... . .. ....... .... ....... ... .. .. ... .. ... .. ... . ... ... ... ... ... ... ... .... ............................................................................................................................................................. ...... Y r r r r r r 1 1 X Eingezeichnet sind : − 1.5 Tatsächliche Werte , vorhergesagte Werte und Abweichungen QM1_16 258 Zum Vergleich : noch eine andere mögliche Vorhersage : ..... .......... ... .... .. ... ... . ....... ... ....... ....... ... .. ....... . . .. . . ... . . .. ...... ... ....... .. ........ ... . ........... .... ... ....... . . . . . ... . . . ... ... ....... ... ....... ... .. ....... . ....... .. ... .. ....... . . . . . ... . . . . . ................. . . . . . . . . . . . ..... . .. ....... .... ....... .. ... .. ... .. ... .. ... . ... ... ... ... ... ... ... .... ............................................................................................................................................................. ...... Y r r r r r r 1 1 ? . ..... ..... ..... .......... ..... ... ..... . . . .... . ..... .. ..... ... ..... ..... ... ..... . . ... . . ... ..... .. ...... ... .. ..... . ... .. ......... ... .. ..... ... . ... ... .. ..... ... ... ..... ..... ... .. ..... . . ... . . . ... . . ... . . ... ... . . . ... . . .... .. . . ... . ... .. . . ... . . .. ... ..... ... ..... ... .. ..... ... .. ..... .... ........ .. .. ........... . . . . . ...... . . . . ... ... . . . . ... ... . . . . .... .... ..... ... ... ... ............................................................................................................................................................. ...... Y r r r r r r 1 X 1 X Welche Vorhersage ist besser ? Die Frage hat ( noch ) keinen Sinn → ‚ Besser ‘ muss präzisiert werden → Einführung von geeigneten Bezeichnungen Ŷ := b X + a : Vorhersage als Variable ŷi := b xi + a : Vorhersagewert für Vp i ei := yi − ŷi : ‚ Vorhersagefehler ‘ bei Vp i E := Y − Ŷ : Vorhersagefehler ( als Variable ) → 4 Y = Ŷ + E Y setzt sich ( additiv ) zusammen aus − Vorhersage Ŷ − Fehler ( ‚ Residuum ‘ ) E 1.5 QM1_16 259 ? Situation bei Vp 1 ( 1. mögliche Vorhersagegerade ) . ........ .......... ... ... ... ... ... ...... ....... ... ....... .. ....... ... .. ....... . . . . ... . . .. . ....... ... .. ........ ... ................ ... . ... .. ....... . . . . ... . . . ... ... ......................................................................... .. ... ..... .. ....... .. . ... ....... ... ... .............. ....... . . . ...... . . . . . . . . ....... .... ... ....... .. ... .. ... .. ... .. ... .............................................................. ... .... .. ... .. ... .. ... .. ... .. ... .. ... .................................................................................................................................................................. . Y r ŷ1 r r r y = bx + a r e1 y1 r 1 1 x1 B e1 ist hier negativ → Präzisierung des ‚ Gütekriteriums ‘ X Bestimme für jede mögliche Vorhersagegerade n X e2i i=1 − Summe der quadrierten Vorhersagefehler → Festlegung , was ‚ besser ‘ hier bedeuten soll : P 2 Eine Vorhersage ‚ ist ‘ umso ‚ besser ‘ , je kleiner ei P 2 − Für die optimale Vorhersage muss ei minimal sein Methode der kleinsten Quadrate , least squares fit ? Kann ein Minimum erreicht werden ? 4 Andere Festlegungen für ‚ Optimalität ‘ wären möglich − 1.5 Wenn ja , wie ? So lässt sich aber besonders gut rechnen QM1_16 260 → Vergleich von zwei Vorhersagen im Miniaturbeispiel Vorhersage 1 (V1) : y = .5 x + 3.5 Vorhersage 2 (V2) : y = x + 2 ........ ......... ... .... .. ... ... .... ....... ... ....... .. ....... ... ....... .. . . . . . ... . .. ...... ... .. ................ ... ............. .. ... .. ....... . . . . ... . . . ....... ... ... ....... ... ....... . .. ....... ... ... . ....... . ... .............. . .......... . . . .... . . . . . . . . .. ....... .... ... ....... ... ... ... . ... .. ... .. . ... .. .... ... ... ... .... .. ............................................................................................................................................................. ...... Y r r r r r r 1 → ? 1.5 r r r r 1 V1 yi 2 4 6 r r X 1 Daten Vp i xi 1 2 2 4 3 3 P .... ........ ..... ......... ..... ..... ... ..... . . . .... .... .. ..... ... ..... ..... ... ..... . . . ... . .... .. ... ..... .. ... ..... .. .. ......... ... ... .. ..... . ... . ...... ... ... ..... ... . ..... ..... ... ... .... . . . ... .. . ... . . . ... . . .... . . . ... . ... .. . . . ... . ... .. . . . ... . . ..... ... ... .... ... .. ..... ... ......... . ... ....... ... ............ .. . . . ....... . . . ... ... . . . . . ... . . . . . . .. .... ..... ... ... ... ............................................................................................................................................................... .... Y V1 : y = .5x + 3.5 ŷi ei e2i 4.5 −2.5 6.25 5.5 −1.5 2.25 5.0 1.0 1.00 9.50 1 X V2 V2 : y = x + 2 ŷi ei e2i 4 −2 4 6 −2 4 5 1 1 9 V2 ist besser Lässt sich V2 weiter verbessern ? Wenn ja , wie ? QM1_16 261 → Minimierung von → Genauer : Ziel : P e2i − Finde a und b so , dass für die zugehörige Vorhersage y = bx + a die Summe der quadrierten Fehler minimal wird 4 Unklar : Gibt es überhaupt ein Minimum ? ( Äquivalente ) Umformulierung des Ziels : → Minimiere ME 2 = X 1X 2 ei statt e2i n ME 2 = SE2 + (ME )2 − Zerlegung von ME 2 in zwei Summanden Summanden getrennt untersuchen SE2 = SY2 −Ŷ = SY2 −(bX+a) 2 = SY2 + b2 SX − 2 b KovX,Y ME = MY −Ŷ = MY −(bX+a) = MY − b MX − a 1.5 QM1_16 262 → Ziel : Minimiere ME 2 ME 2 = SE2 + (ME )2 2 − 2 b KovX,Y SE2 = SY2 + b2 SX (ME )2 = ( MY − b MX − a )2 4 1. Summand ohne a 4 2. Summand ≥ 0 Minimum 0 wird erreicht für ME = 0 ME = 0 wird erreicht mit → Aufgabe daher nur noch : Minimiere SE2 → − B ♣ 1.5 a = MY − b MX Restaufgabe enthält nur noch b als ‚ Parameter ‘ Gesamtminimum wird dann erreicht mit a = MY − bMX 2 Voraussetzung zunächst : SX 6= 0 , SY2 6= 0 QM1_16 263 Ziel : Minimiere SE2 → Trick : Quadratische Ergänzung 2 SE2 = SY2 + b2 SX − 2 b KovX,Y (KovX,Y )2 (KovX,Y )2 2 + S − Y 2 2 SX SX 2 (KovX,Y )2 2 + SY − 2 SX 2 = b2 SX − 2 b KovX,Y + b SX − = 4 KovX,Y SX 2. Summand hängt nicht mehr von b ab ; Umformung : (KovX,Y )2 2 SY − 2 SX = SY2 (KovX,Y )2 2 SY − 2 SY2 SX 2 = SY2 ( 1 − rX,Y ) 4 1. Summand ist ≥ 0 − Minimum 0 erreichbar durch geeignete Wahl von b → • b = SY KovX,Y KovX,Y SY = = rX,Y 2 SX SX SY SX SX Gesamtmininierungsaufgabe wird gelöst durch b = − KovX,Y SY = r , X,Y 2 SX SX a = MY − b MX Das so erreichte Mininum von ME 2 ist 2 SE2 = SY2 ( 1 − rX,Y ) 1.5 QM1_16 264 ? Lösung im Beispiel Vp 1 2 3 MX = 3 , X 2 4 3 Y 2 4 6 MY = 4 2 SX = 2/3 , SY2 = 8/3 , b = KovX,Y = 2/3 , rX,Y = .5 (2/3) KovX,Y = = 1 2 SX (2/3) a = MY − b MX = 4 − 1 · 3 = 1 → Vorhersagegleichung : y = x+1 Summe der quadrierten Abweichungen : Daten Vp i xi 1 2 2 4 3 3 P yi 2 4 6 y =x+1 ŷi ei e2i 3 −1 1 5 −1 1 4 2 4 0 6 Alternativ : X 2 e2i = n ME 2 = n SE2 = n SY2 ( 1 − rX,Y ) = 3 · (8/3) · ( 1 − .52 ) = 8 · (3/4) = 6 1.5 QM1_16 265 → Vergleich mit den früheren Versuchen Vorhersage 1 (V1) : y = .5 x + 3.5 P e2i = 9.5 Vorhersage 2 (V2) : y = x + 2 P e2i = 9 Optimale Vorhersage : y = x + 1 P e2i = 6 Vorhersagegeraden mit Zentroid ( e) ..... .......... ... .... .. ... .. ....... ... ....... .. ....... ... .. ....... . . . . ... . . .. ....... ... . .......... ... ... ........ ....... ... ... ....... . . . . ... . .. . ....... ... . ....... ... . ... .............. . ......... . . . .... . . . . . . . . ..... ... . . . . . . . . .. ... .... .. ... ... .. . ... ... .. .... .... .. ... ......................................................................................................................................... Y r r r r e r r 1 1 V1 X .. ..... ..... .......... ..... ..... ... ..... . . . .... .... .. ..... ... ..... ..... ... ..... . .. . . ... . . .. ......... ... .. ...... .. ... .. ..... . ... ... ..... . . . ... .. . ... . . . ... .. . ... . . . ... . . .... . . . ... . ..... . . . ... . ... .. . . . ... . . ... . . . . ... . ... ... ... ..... .. ... ......... ............ .. . . . ...... . . . . ... ... . . . . .... ... . . . .. .... ... .... ........................................................................................................................................ Y r r r r e r r 1 1 V2 X ..... .......... ... .... .... .. ..... ... ..... ..... ... ..... . .. . . ... . ... .. ... ..... .. ..... ... .. ..... ... .. .... .. ........... ... .. ....... ... ... .. ..... ... . . ...... ... ..... . . ... . ... . . . ... . ... . . . ... . ...... ... ..... . ... ..... . ..... .. ... .... . . . ... . . . ... ......... ... ....... ....... . ....... ..... .. ..... .. ..... .... ..... ........................................................................................................................................ Y r r r r e r r 1 1 Optimal X 4 Beobachtungen im Beispiel : P − ei = 0 ( muss so sein ) − 1.5 Vorhersagegerade geht durch Zentroid QM1_16 266 → Nur zur Vollständigkeit : ( uninteressante ) Ausnahmefälle 2 = 0 SX Dann sind die X-Werte konstant ( = MX ) Es gilt dann auch : KovX,Y = 0 → b kann beliebig gewählt werden Viele mögliche Vorhersagen 4 Relevant ist dabei nur der einzige X-Wert MX − → Dort stimmen die möglichen Geraden überein SE2 = SY2 SY2 = 0 2 ( und SX 6= 0 ) Dann sind die Y -Werte konstant ( = MY ) Es gilt dann auch : KovX,Y = 0 → b = 0, → SE2 = 0 a = MY ♣ Voraussetzung im Folgenden : Vereinbarung : 2 SX 6= 0 , SY2 6= 0 − Ab jetzt bezeichnen a , b , Ŷ , E etc. immer die zur optimalen Vorhersage gehörenden Zahlen / Variablen 1.5 QM1_16 267 → Eigenschaften der Lösung • Vorhersagegerade geht durch Zentroid o n Vorhersage für MX ist b MX + a = b MX + ( MY − b MX ) = MY • o n • 4 − B o n P ei = 0 , ME = 0 Gilt per Konstruktion KovX,E = 0 Naheliegend : ‚ Fehler E hat mit X nichts mehr zu tun ‘ Sonst wäre auch Fehler noch ‚ teilweise vorhersagbar ‘ So darf man eigentlich nicht reden ! KovX,E = KovX,Y −(bX+a) = KovX,Y − b KovX,X = KovX,Y − KovX,Y 2 SX 2 SX = KovX,Y − KovX,Y = 0 1.5 QM1_16 268 → • o n Varianzzerlegung KovŶ ,E = 0 KovŶ ,E = KovbX+a,E = b KovX,E = b · 0 = 0 • SY2 = SŶ2 + SE2 o n SY2 = SŶ2 +E = SŶ2 + SE2 + 2 KovŶ ,E = SŶ2 + SE2 SŶ2 : ‚ Vorhersagevarianz ‘ , ‚ aufgeklärte Varianz ‘ ( absolut ) SE2 : ‚ Fehlervarianz ‘ , ‚ Residualvarianz ‘ , ‚ Restvarianz ‘ 4 → SY2 = SŶ2 + SE2 : ( additive ) ‚ Zerlegung ‘ der Varianz von Y in − aufgeklärte Varianz SŶ2 − Restvarianz SE2 4 ! 1.5 Varianzzerlegungen sind beliebt Vorsicht mit Assoziationen ! ( aufgeklärt – erklärt ) QM1_16 269 → SY2 = SŶ2 + SE2 Varianzzerlegung : • 2 ) SE2 = SY2 ( 1 − rX,Y • 2 SY2 SŶ2 = rX,Y 2 SŶ2 = SY2 − SE2 = SY2 − SY2 ( 1 − rX,Y ) o n 2 2 = SY2 − SY2 + SY2 rX,Y = rX,Y SY2 ♦ Die Zahl 2 SY.X := SE2 2 ( = SY2 ( 1 − rX,Y )) heißt auch Schätzfehlervarianz . Die Zahl SY.X := SE ( = SY q 2 1 − rX,Y ) heißt auch Standardschätzfehler → √ 1 − r2 als Funktion von r ( Pythagoras ) ... ...... ......... .... .. ... . ...................................................... . . . . . . . . . . . . .......... ...... . . . . ........ . . . . .... ....... ..... . . . . . ... . ...... .. ...... ...... ... ...... ..... . . . . . . ..... . ... . . . ..... . . . . ..... .... . . . . . ..... . ... . . . . . ... . .. . ... . . . ... .. ... . . ... . . . . . ... . .. ... ... . . ... .. .. . . ... .. .. . . ... .. .. . . ... ... .... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ............................................................................................................................................................................ ...... 1.0 √ 1 − r2 0.5 −1.0 −0.5 B 1.5 0.0 0.5 1.0 r ‚ Klein ‘ wird die Funktion erst in der Nähe von ±1 QM1_16 270 → Versuch einer Interpretation von SY.X Streuung als ‚ Maß der Unsicherheit ‘ über die Lage der yi Vgl. Tschebyscheff B Ungleichungen à la Tschebyscheff auch für Regression ? Links : Ohne Regression , rechts : mit Regression − Beste Vorhersage ohne Regression : MY . ....... .......... ... .... .. ... ... .. .................................................................................................................................. .... .... ... ..... ... ... .................. ........... ... ... ..... . . .................................................................................................................................. .............. .. .. ..... ... ............. ... ........ ... ... ... ... ... .................................................................................................................................. ... .. ... ... ... ... ... . ......................................................................................................................................... . .... ..... . ..... . ....... ..... ......... . . .......... . . . .......... ....... .... ...... ... ..... .... ................ ....... . . .... . .... ......... ........ ...... .. . ..... ... .... ......... ........ ..... ..... ... ...... ... ..... . . ..... .... ... . . ..... .... ........ ... .... . . . . ... . . . .... ..... ...... ........ ... ..... .... ... .... ......... ..... ..... ..... ..... ... ...... ..... ..... . . . . .... . . ... . . ... ..... .... . . . . . . . . ... . . . ... ... .... . . . . . . . . ... . . . . .... .... ..... ... ..... ..... ..... ... ..... ..... ..... ..... ..... ... ........ ..... ..... . . . . . . . . ........... . .... .. ..... ..... ..... .... ..... ..... .. ..... ..... ..... .. ..... ..... ..... .... ......... . . . . . . . . ... ..... ... ....... ..... ...... ..... ....... ..... ..... .... .... . . . . . . . . . . ..... ... ......... .... ......................................................................................................................................... . ..... ..... . . . ... ..... ..... .... Y Y q e q q e q SY q q 1 1 X 1 SY.X X 1 Halbe ‚ Streifenbreite ‘ ohne Regression : SY Halbe ‚ Streifenbreite ‘ mit Regression : SY.X = SY − → ? 2 1 − rX,Y ‚ Streifenbreite ‘ immer in Richtung y-Achse q 2 ‚ Verkleinerungsfaktor ‘ durch Regression : 1 − rX,Y Im Beispiel : q 2 1 − rX,Y = √ 1 − .52 = √ .75 = .866 4 Verkleinerung geringer , als vielleicht erwartet B Korrelation .5 gilt oft schon als recht erfreulich 1.5 q QM1_16 271 → Weitere Eigenschaften 2 ≤ SY2 0 ≤ SY.X • 2 = 0 SY.X 2 = 1 ⇔ perfekter linearer Zusammenhang ⇔ rX,Y 2 2 = 0 ⇔ Vorhersage konstant = SY2 ⇔ rX,Y SY.X 2 2 ) SY.X = SY2 ( 1 − rX,Y o n − b = rX,Y (SY /SX ) Interpretation von rX,Y = 0 B • MŶ = MY , 2 SY2 SŶ2 = rX,Y MŶ = MY −E = MY − ME = MY − 0 = MY o n rŶ ,Y = | rX,Y | • Ŷ = b X + a , daher rŶ ,Y = ± rX,Y o n ‚ Vorfaktor ‘ ( ± ) ist Vorzeichen von b = rX,Y (SY /SX ) also Vorzeichen von rX,Y → 4 rY,Ŷ = | rX,Y | rX,Y = 0 ist hier vereinbarungsgemäß ausgeschlossen − 1.5 Bei rX,Y = 0 wäre b = 0 , also SŶ = 0 QM1_16 272 → Varianzzerlegung ‚ relativ ‘ • o n 1 = SŶ2 SY2 Dividiere SY2 = SŶ2 + SE2 − SŶ2 SE2 + 2 , SY SY2 2 = rX,Y durch SY2 2 SY2 Ebenso für SŶ2 = rX,Y ♦ Der quadrierte Korrelationskoeffizient 2 rX,Y = SŶ2 SY2 heißt auch Determinationskoeffizient 4 ? → • Anteil der aufgeklärten Varianz an der Gesamtvarianz von Y Determinationskoeffizient im Beispiel : .52 = .25 Eigenschaften des Determinationskoeffizienten 2 0 ≤ rX,Y ≤ 1 2 rX,Y = 1 ⇔ perfekter linearer Zusammenhang 2 rX,Y = 0 ⇔ Vorhersage konstant 4 − B − 1.5 Statt ‚ perfekter linearer Zusammenhang ‘ suggestiver : Y ist durch X ‚ vollständig determiniert ‘ Missverständnisse drängen sich hier geradezu auf ! Es handelt sich ja nur um eine Stichprobe QM1_16 273 → Regression von X auf Y → Aufgabe : Regression von X auf Y ? Kann man vielleicht die Regression von Y auf X benutzen ? ...... ..... ....... .......... ....... ....... ... ....... . . . . . .... . .... .. ....... ....... ... ....... .. ....... ............................................................................................................................................................. .. ....... .. .... .. ....... ... ....... ... ....... ... . ....... .. . . . ... ....... . . ... . ..... ... . . ...... . . . ... . ..... . .. . . . . ... ....... . .............................................................................................................................. ... ... ... .. . . . . . .... . . ..... .. . . . . . . . ... . . ..... . . . . ... . . . ... . . ..... .. . . . . . . . ... . . ..... . . . . . . . ... . .... . ..... . . . . . . . ... .. . . ..... . . . . .. . . . ... . . ..... . . . . . . . ... . ... ... .... ... .............. .. . ........ .. . . . ..... . . . .. . . . . . . ..... ... . . . . . . . ... . . . ..... . . . . .. . . . . . . .. ... ....... .... .... .. ... ... .. ... ... .. ... ... .. ... ... . ... ... ...... .... .... ... ....................................................................................................................................................................................................................................................................... Y Regression von Y auf X ? X → Vorgehen zur Beantwortung der Frage Bestimme die Regression von X auf Y Stelle die Regressionsgerade im x-y-System dar Vergleiche mit der Regressionsgerade ‚ Y auf X ‘ 4 Es reicht , die Steigungen zu vergleichen Steigungen : b ( Y auf X ) , b0 ( X auf Y , im y-x-System ) Steigung der Gerade ‚ X auf Y ‘ im x-y-System : 1/b0 Zum Vergleich : Quotient der Steigungen : b/(1/b0 ) = bb0 1.5 QM1_16 274 → Vergleich der Steigungen im x-y-System Quotient der Steigungen ist bb0 b = rX,Y SY , SX bb0 = rX,Y → b0 = rX,Y SX SY SY SX 2 rX,Y = rX,Y SX SY Übereinstimmung der Steigungen nur für rX,Y = ± 1 Dann aber auch Übereinstimmung der Geraden − → rX,Y 6= ± 1 : Geraden stimmen nicht überein − ? Beide gehen ja durch das Zentroid Immerhin haben Steigungen gleiches Vorzeichen Die beiden Regressionsgeraden im Beispiel : ..... .. ... .......... ... ... .... .... ..... .. .. ..... ... ..... ... ..... ... ... ..... . .. . . ... . . .. ... ..... ... ..... ... ... .... ... ... ....... ... .... ........ ... .. ...... ... ......... ..... ... ........ . . ... . . ..... .. ... ..... .. ... ..... .... ..... ... . ..... . . ... . ... .. ..... ... .. ..... . . . ... . . . . ... ......... ... ... ....... ... .... .. .. ....... . . . . . . ..... .. ... ..... .. ... ..... .... ..... ........................................................................................................................................... ... .. .. .. Y r Y auf X e r r 1 1 1.5 X auf Y X QM1_16 275 ? Warum stimmen die Regressionsgeraden nicht überein ? → Andere ( quadrierte ) ‚ Abstände ‘ sind zu minimieren − Bei Y auf X : parallel zur y-Achse − Bei X auf Y : parallel zur x-Achse . ...... ......... .. ... ... ..... ..... ... ..... ..... ... ..... . .. . ... . .... .. ... ..... .. ... ..... .. ..... ... .. ...... . . . ... . .. ..... .. ... .. ..... . .. ..... .. ... ..... . ... ..... . . . ... . ... . . . ... . .... . . ... . ..... ... ....... ... ..... . ..... .. ... ..... . . . .. ... . . ... ......... ... ....... ...... . .. ...... ..... .. ..... .. ..... .... ..... ........................................................................................................................................ Y Y r r r r r r e r r e r r r r 1 1 → . .. ...... ... ......... ... .. .... ... ... .. ... ... ... ... .......... ... ... ... ... ... ... ... .. ... . ... ... ... ... ... ................. .. ... . ... ... ... ... ... ... .. ... . ... ... ............ ... ... .. .. ... . ... ... ... ... ... ... .. ... . ........................................................................................................................................... . .. ... .. .. 1 X 1 Y auf X X X auf Y Eine weitere ähnliche Aufgabe ? Suche Gerade , bei der die Summe der quadrierten Abstände senkrecht zur Gerade minimal ist ! → ? Lösung ist ( meist ) wieder eine andere Gerade Im Beispiel : Y ... ...... ......... ... .... ... ... ... .. ... . ... ... ............ ... ... .. .. ... . ... ... ... ... ... ... ........ ... . ... ... ....... ... ... ... ... .. ... . ... ... ... ... .. ... .. . ... . . . .... ... .. ... ... ... ... .. ... . ... ... ... ... ............................................................................................................................................ . ... .. .. ... r r er r rr 1 1 B X Problematisch ist daher die Formulierung : − ‚ Die die Punktwolke am besten repräsentierende Gerade ‘ 1.5 QM1_16 276 → Multiple ( lineare ) Regression Erweiterung gegenüber der ‚ einfachen linearen Regression ‘ : − → − Mehrere Prädiktoren Ziel : ‚ Vorhersage ‘ einer Variable Y durch mehrere Variablen Xj Bezeichnung wieder : Y : Kriterium , Xj : Prädiktoren Anzahl der Prädiktoren : m − Prädiktoren also : X1 , . . . , Xm Vorhersagegleichung wieder ( fast ) einfachstmöglich : y = m X bj xj + a j=1 → bj : Regressionsgewichte , a : additive Konstante Beispiele : ? Vorhersage der Diplomnote mit mehreren Abiturnoten ? Vorhersage der Hilfsbereitschaft mit Stimmung und Vermögen 1.5 QM1_16 277 → Datensituation ♣ Werte der Variablen Xj und Y liegen für n Vpn vor xij : Wert von Vp i in Variable Xj Zusammenfassung der Daten in ‚ Datenmatrix ‘ Vp 1 2 .. . n X1 x11 x21 .. . xn1 X2 x12 x22 .. . xn2 ... ... ... .. . ... Xm x1m x2m .. . xnm Y y1 y2 .. . yn Erster Schritt : Ermittlung von Kennwerten : − Mittelwerte MX1 , . . . , MXm , MY − 2 Varianzen SX , SY2 j − Kovarianzen KovXj ,Xk , KovXj ,Y Kovarianzen ( und Varianzen ) : − 1.5 wie üblich in Kovarianzmatrix versammeln QM1_16 278 ? → Beispiel Ziel : Vorhersage des Studienerfolgs Y ( Durchschnittsnote ) − Prädiktoren : Abiturpunkte in Deutsch ( D ) und Mathe ( M ) − ferner Ergebnis eines speziellen Eignungstests (T ) Anfang einer möglichen Datenmatrix : Vp D M T Y 1 10 10 110 2.8 2 8 15 120 1.1 .. .. .. .. .. . . . . . Mögliche Vorhersage mit der Gleichung Ŷ = −.1 D − .2 M − .05 T + 11 4 − ? Gewichte : −.1 , −.2 , −.05 Additive Konstante : 11 Vorhersage für Vp 1 : −.1 · 10 − .2 · 10 − .05 · 110 + 11 = 2.5 ? Vorhersage für Vp 2 : −.1 · 8 − .2 · 15 − .05 · 120 + 11 = 1.2 Vorhersagen passen ganz gut zu den tatsächlichen Y -Werten 1.5 QM1_16 279 → Geometrische Darstellung 4 Noch möglich im Fall von 2 Prädiktoren X1 und X2 Datendarstellung dann im dreidimensionalen Raum Achsen : X1 , X2 , Y Jeder Vp i entspricht ein Punkt im R3 : ( xi1 , xi2 , yi ) → Vorhersagefunktion : Jedem Paar ( x1 , x2 ) wird vorhergesagter Wert zugeordnet : y = b1 x1 + b2 x2 + a Graph ist dann allgemein ‚ eine Art Gebirgsoberfläche ‘ über der x1 -x2 -Grundebene Im Fall dieser einfachen Funktion ist der Graph eine Ebene a : ‚ Durchstoßpunkt ‘ der Y -Achse b1 , b2 : Steigungen der Schnittgeraden des Graphen mit der X1 -Y - bzw. X2 -Y -Ebene 1.5 QM1_16 280 → Bezeichnungen wie bei der einfachen linearen Regression : Ŷ := m X bj Xj + a : Vorhersage als Variable j=1 ŷi := m X bj xij + a : Vorhersagewert für Vp i j=1 ei := yi − ŷi : Vorhersagefehler bei Vp i E := Y − Ŷ : Vorhersagefehler ( als Variable ) → − → Aufgabe : Finde die optimale Vorhersagefunktion wieder im Sinne der kleinsten Quadrate Genauer : Finde Gewichte bj und Konstante a so , P − dass für die zugehörige Vorhersage Ŷ = b j Xj + a die Summe n X e2i i=1 der quadrierten Fehler minimal wird 1.5 QM1_16 281 P e2i durch geeignete Wahl der bj , a → Minimiere → Vorgehen ähnlich wie bei einfacher linearer Regression Minimierung von ME 2 statt Zerlegung : P e2i ME 2 = SE2 + (ME )2 In SE2 kommt a nicht mehr vor Minimum 0 von (ME )2 wird erreicht durch geeignetes a : X ME = MY − bj MXj − a P → Wähle also ( für gegebene bj ) : a = MY − → Aufgabe nun noch : Minimiere SE2 durch geeignete bj bj MXj Heuristik : − In der einfachen Regression galt KovX,E = 0 Vielleicht muss hier etwas Ähnliches gelten 1.5 QM1_16 282 • Falls KovXj ,E 6= 0 gilt für irgendein j , so ist die Vorhersage Ŷ nicht optimal Gegeben sei also Vorhersage Ŷ o n → mit KovXj ,E 6= 0 Zeige : Diese Vorhersage lässt sich verbessern Ansatz : Modifikation zu neuer Vorhersage Ŷ 0 = Ŷ + d Xj − − 4 − d bleibt vorerst noch unbestimmt Ŷ 0 = Also : P k bk Xk + a + d Xj Bei Ŷ 0 ändert sich im Vergleich zu Ŷ nur bj Zum alten bj wird d hinzuaddiert Der Fehler E 0 von Ŷ 0 ist E 0 = Y − Ŷ 0 = Y − (Ŷ + d Xj ) = (Y − Ŷ ) − d Xj = E − d Xj 2 SE2 0 = SE2 + d2 SX − 2 d KovXj ,E j d = Wähle jetzt SE2 0 → 1.5 SE2 KovXj ,E 2 SX j = SE2 (KovXj ,E )2 2 KovXj ,E + S − 2 KovXj ,E Xj 2 )2 2 (SX S Xj j = SE2 (KovXj ,E )2 − < SE2 2 SXj lässt sich also tatsächlich verkleinern QM1_16 283 Ergebnis bisher : − Ist KovXj ,E 6= 0 für ein j , so ist Ŷ nicht optimal Umgekehrt ausgedrückt : − Beim optimalen Ŷ müssen alle KovXj ,E gleich 0 sein → Kleiner Exkurs − ‚ Notwendige ‘ und ‚ hinreichende ‘ Bedingungen A : Ŷ ist optimal B : Alle KovXj ,E sind 0 → Hier ist B eine notwendige Bedingung für A − Wenn B nicht gilt , kann auch A nicht gelten − Wenn A gilt , so muss auch B gelten → Außerdem ist A eine hinreichende Bedingung für B − → ? 1.5 Wenn A gilt , so gilt auch B Frage für später : Ist hier B auch eine hinreichende Bedingung für A ? QM1_16 284 → Umformulierung der gefundenen Bedingung ( Notwendige ) Bedingung für Optimalität − Alle KovXj ,E müssen 0 sein KovXj ,E = KovXj ,Y −Ŷ = KovXj ,Y − KovXj ,Ŷ KovXj ,Ŷ = KovXj ,Pk bk Xk +a = m X bk KovXj ,Xk k=1 → KovXj ,E = 0 ⇔ m X KovXj ,Xk bk = KovXj ,Y k=1 P • Ist eine Vorhersage Ŷ = bj Xj + a optimal , so müssen die Gleichungen m X KovXj ,Xk bk = KovXj ,Y k=1 gelten für alle j = 1, . . . , m 4 Dies sind m Gleichungen mit m Unbekannten bj Sie heißen Normalengleichungen ( Ngln ) 4 Die Gleichungen lassen sich als eine Orthogonalitätsbedingung interpretieren und ‚ normal ‘ bedeutet manchmal ‚ senkrecht ‘ 1.5 QM1_16 285 ? Ein Beispiel : ♣ Zwei Prädiktoren X1 , X2 , Kriterium Y − Mittelwerte : MX1 = 4 , MX2 = 1 , MY = 3 − Kovarianzmatrix von X1 , X2 , 4 −2 −2 9 6 5 Y : 6 5 25 Ngln : 4 b1 + (−2) b2 = 6 (−2) b1 + 9 b2 = 5 B Koeffizientenschema : Kovarianzmatrix von X1 und X2 : ! 4 −2 −2 9 B Rechte Seite : Kovarianzen von X1 und X2 mit Y Lösung : b1 = 2 , b2 = 1 Damit : a = MY − (b1 MX1 + b2 MX2 ) = 3 − (8 + 1) = −6 → Einziger Kandidat für optimale Vorhersage : Ŷ = 2 X1 + X2 − 6 ? 1.5 Noch unklar : Ist diese Lösung wirklich optimal ? QM1_16 286 → Ergebnis bisher : − Die bj einer optimalen Lösung müssen die Ngln erfüllen Unklar : ? Sind die Ngln immer lösbar ? ? Liefert eine Lösung der Ngln wirklich eine optimale Vorhersage ? Eindeutig ? • Die Ngln besitzen immer eine Lösung , die ‚ meistens ‘ auch eindeutig ist o n Begründung ist umfangreich • Jede Lösung der Ngln liefert eine optimale Vorhersage o n Geeignete Umformungen → Vorgehen bei multipler Regression : Aufstellen und Lösen der Ngln ( → b1 , . . . , bm ) P Ermitteln von a als a = MY − bj MXj Vereinbarung : − Ab jetzt bezeichnen a , bj , Ŷ , E etc. immer zu einer optimalen Vorhersage gehörende Zahlen / Variablen 1.5 QM1_16 287 → Eigenschaften der Lösung • Für MX1 , . . . , MXm wird MY vorhergesagt 4 o n Vorhersage geht also durch ‚ Zentroid ‘ (MX1 , . . . , MXm , MY ) Einsetzen von MX1 , . . . , MXm für X1 , . . . , Xm liefert X X X bj MXj + a = bj MXj + ( MY − bj MXj ) = MY • ME = 0 o n Gilt per Konstruktion • o n • o n KovŶ ,E = 0 KovŶ ,E = KovP bj Xj +a,E = MŶ = MY , P bj KovXj ,E = 0 SŶ2 = KovŶ ,Y = P bj KovXj ,Y MŶ = MY −E = MY − ME = MY SŶ2 = KovŶ ,Ŷ = KovŶ ,Y −E = KovŶ ,Y − KovŶ ,E = KovŶ ,Y = KovP bj Xj +a,Y X = bj KovXj ,Y 1.5 QM1_16 288 → Varianzzerlegung • SY2 = SŶ2 + SE2 o n SY2 = SŶ2 +E = SŶ2 + SE2 + 2 KovŶ ,E = SŶ2 + SE2 SŶ2 : ‚ Vorhersagevarianz ‘ , ‚ aufgeklärte Varianz ‘ ( absolut ) SE2 : ‚ Fehlervarianz ‘ , ‚ Residualvarianz ‘ , ‚ Restvarianz ‘ • → ME 2 = SE2 = SY2 − SŶ2 = SY2 − P bj KovXj ,Y Varianzzerlegung relativ • 1 = SŶ2 SY2 SE2 + 2 SY ♦ Die Zahl 2 R := SŶ2 SY2 heißt auch Determinationskoeffizient 4 Relativer Anteil der aufgeklärten Varianz B Voraussetzung dabei immer : SY2 6= 0 1.5 QM1_16 289 ♦ Die Zahl √ SŶ SY heißt auch multiple Korrelation zwischen Y und X1 , . . . , Xm R := • 4 Ist SŶ2 6= 0 , so gilt R = rY,Ŷ R dann also : Korrelation der optimalen Vorhersage mit Y rŶ ,Y = o n • • R2 = KovŶ ,Y SŶ SY SŶ2 = R2 SY2 , = SŶ2 SŶ SY = SŶ = R SY SE2 = SY2 ( 1 − R2 ) 0 ≤ R2 ≤ 1 R2 = 1 ⇔ perfekter Vorhersage ( SE2 = 0 ) R2 = 0 ⇔ Vorhersage konstant ( SŶ2 = 0 ) ♦ Die Zahl 2 SY.X := SE2 1 ,...,Xm ( = SY2 ( 1 − R2 ) ) heißt auch Schätzfehlervarianz . Die Zahl SY.X1 ,...,Xm := SE ( = SY p 1 − R2 ) heißt auch Standardschätzfehler 1.5 QM1_16 290 • 2 0 ≤ SY.X ≤ SY2 1 ,...,Xm 2 SY.X = 0 1 ,...,Xm ⇔ R2 = 1 ⇔ perfekte Vorhersage 2 SY.X = SY2 ⇔ R2 = 0 ⇔ Vorhersage konstant 1 ,...,Xm o n 2 = SY2 ( 1 − R2 ) SY.X 1 ,...,Xm ? Kennwerte im Beispiel ♣ Zwei Prädiktoren X1 , X2 , Kriterium Y − Mittelwerte : MX1 = 4 , MX2 = 1 , MY = 3 − Kovarianzmatrix von X1 , X2 , 4 −2 −2 9 6 5 Y : 6 5 25 Lösung der Ngln : b1 = 2 , b2 = 1 → Optimale Vorhersage : Ŷ = 2 X1 + X2 − 6 → SŶ2 = → SE2 = SY2 − SŶ2 = 25 − 17 = 8 2 P SŶ2 bj KovXj ,Y = 2 · 6 + 1 · 5 = 17 17 = .68 , 25 → R = → 2 SY.X = SE2 = 8 , 1 ,X2 1.5 SY2 = R = √ SY.X1 ,X2 = .68 = .825 √ 8 = 2.828 QM1_16 291 → β-Gewichte ♣ Gelegentlich : Regression mit standardisierten Variablen − Standardisierung bei Prädiktoren und Kriterium − Die Fälle ‚ SXj = 0 ‘ und ‚ SY = 0 ‘ sind jetzt ausgeschlossen Standardisierte Prädiktoren : Z1 , . . . , Zm Standardisiertes Kriterium : ZY Gewichte heißen zur Unterscheidung βj ( ‚ Zj ‘ statt ‚ ZXj ‘ ) ( ‚ β-Gewichte ‘ ) Ngln im standardisierten Fall : m X KovZj ,Zk βk = KovZj ,ZY k=1 Kovarianzen der standardisierten Variablen sind Korrelationen der unstandardisierten Ngln im standardisierten Fall also : m X rXj ,Xk βk = rXj ,Y ( j = 1, . . . , m ) k=1 4 − ? − 1.5 Unterschied zum unstandardisierten Fall : Kovarianzen werden durch Korrelationen ersetzt Beziehung zur Lösung im unstandardisierten Fall ? Also : Beziehung der βj zu den bj ? QM1_16 292 → Beziehung zwischen den βj und den bj • Sind die Zahlen bk Lösungen der Ngln im unstandardiserten Fall , so sind die Zahlen SX bk k SY Lösungen der Ngln im standardisierten Fall und umgekehrt Voraussetzung : Die bk lösen die unstandardisierten Ngln : o n m X KovXj ,Xk bk = KovXj ,Y k=1 Division durch SXj SY , Einfügung des Faktors 1 = SXk /SXk m X KovXj ,Xk SXk KovXj ,Y bk = SXj SY SXk SXj SY k=1 Umgruppieren m X KovXj ,Y KovXj ,Xk SXk bk = SXj SXk SY SXj SY k=1 Umformen m X rXj ,Xk k=1 → = rXj ,Y Die (SXk /SY ) bk lösen also die standardisierten Ngln Umkehrung umgekehrt 1.5 SXk bk SY QM1_16 293 → Ngln , standardisiert und unstandardisiert Sind b1 , . . . , bm Lösungen der Ngln im unstandardisierten Fall , so sind SXj βj := bj ( j = 1, . . . , m ) SY Lösungen der Ngln im standardisierten Fall und umgekehrt → Im ( Normal )-Fall eindeutiger Lösbarkeit gilt βj = bj SXj SY ( j = 1, . . . , m ) Additive Konstante ( standardisiert ) : X X MZY − βj MZj = 0 − βj · 0 = 0 → Ist die Vorhersage Ŷ = X bj Xj + a optimal im unstandardisierten Fall , so ist mit βj = b j SXj SY ( j = 1, . . . , m ) die Vorhersage ẐY = X βj Zj optimal für die standardisierten Variablen → Grenzfall m = 1 β = b 1.5 SX SY SX = rX,Y = rX,Y SY SX SY QM1_16 294 ? β-Gewichte im Beispiel ♣ Zwei Prädiktoren X1 , X2 , Kriterium Y − Mittelwerte : MX1 = 4 , MX2 = 1 , MY = 3 − Kovarianzmatrix von X1 , X2 , 4 −2 −2 9 6 5 Y : 6 5 25 Lösung der Ngln : b1 = 2 , b2 = 1 → Ŷ = 2 X1 + X2 − 6 Optimale Vorhersage : Korrelationsmatrix von X1 , X2 , Y : 1 −1/3 3/5 1 1/3 −1/3 3/5 1/3 1 Ngln für die standardisierten Variablen : β1 + (−1/3) β2 = 3/5 (−1/3) β1 + Lösung : β1 = 4/5 , → β2 = 1/3 β2 = 3/5 Optimale Vorhersage ẐY = .8 Z1 + .6 Z2 4 In der Tat : β1 = (SX1 /SY ) b1 , 1.5 β2 = (SX2 /SY ) b2 QM1_16 295 → Beziehung der beiden Regressionsgleichungen → Schreibe die Originalregressionsgleichung mit z-Werten Einsetzen von Xj = Sj Zj + Mj Ŷ = X = X b j Xj + a bj (SXj Zj + MXj ) + a X X X = bj SXj Zj + bj MXj + MY − bj MXj X = bj SXj Zj + MY Standardisiere Ŷ ( mit der Y -Standardisierung ) bj SXj Zj + MY − MY SY P X SXj bj SXj Zj = bj Zj = SY SY X = βj Zj Ŷ − MY = SY P Vergleich mit standardisierter Regressionsgleichung : X ẐY = βj Zj Ŷ − MY SY → ẐY ist die standardisierte Vorhersage → Beide Regressionsgleichungen sind ‚ eigentlich ‘ gleich 1.5 QM1_16 296 → Sonderfall : Unkorrelierte Prädiktoren Kovarianzmatrix hat hier außerhalb der Diagonalen Nullen In der Diagonale stehen die Varianzen der Prädiktoren j-te Ngl allgemein : m X KovXj ,Xk bk = KovXj ,Y k=1 j-te Ngl hier : 2 SX b = KovXj ,Y j j Lösung : bj = KovXj ,Y 2 SX j B bj ist gleichzeitig das Gewicht der einfachen Regression auf Xj Aufgeklärte Varianz : SŶ2 = = = 1.5 X bj KovXj ,Y = X (KovXj ,Y )2 2 SX j X SY2 X KovXj ,Y 2 SX j KovXj ,Y SY2 2 rX SY2 j ,Y QM1_16 297 Aufgeklärte Varianz bei unkorrelierten Prädiktoren : X 2 SŶ2 = rX SY2 j ,Y B → 2 SY2 ist die aufgeklärte Varianz bei Regression auf Xj rX j ,Y Bei unkorrelierten Prädiktoren also : − Insgesamt aufgeklärte Varianz ist Summe der durch die Prädiktoren einzeln aufgeklärten Varianzen 4 Derartige Zerlegungen sind besonders beliebt 4 Die Varianzaufklärung ist hier sozusagen additiv Division durch SY2 : 2 R = SŶ2 SY2 = X 2 rX j ,Y B Multipler Determinationskoeffizient ist Summe der Determinationskoeffizienten aus den einfachen Regressionen 4 Eindruck : − Man kann die Prädiktoren in unterschiedlichem Maß für die Vorhersage (?) verantwortlich machen (?) − Das ‚ Maß ‘ ist durch die Determinationskoeffizienten gegeben B 1.5 Vorsicht vor überschießenden Assoziationen QM1_16 298 → β -Gewichte bei unkorrelierten Prädiktoren Hier gilt : βj = bj → SXj SY SXj = rXj ,Y = rXj ,Y SY SXj SY Zusammenfassung : Bei unkorrelierten Prädiktoren gilt : • Die Regressionsgewichte sind dieselben wie bei den einzelnen einfachen linearen Regressionen : bj = KovXj ,Y SY = rXj ,Y 2 SXj SXj • Die Varianzaufklärung ist additiv : X 2 2 SŶ = rX SY2 j ,Y • Der multiple Determinationskoeffizient ist die Summe der Determinationskoeffizienten aus den einfachen Regressionen X 2 2 R = rX j ,Y • Die β -Gewichte sind gleichzeitig die Korrelationen : βj = rXj ,Y 1.5 QM1_16 299 → Zum Vergleich : Korrelierte Prädiktoren 4 Verhältnisse sind unübersichtlicher 4 Verhältnisse sind womöglich verwirrend − jedenfalls bei übermäßiger Assoziationssucht Gewichte aus multipler und einfachen Regressionen müssen nicht gleich sein ? − 4 − Im Beispiel : Multiple Gewichte : b1 = 2 , b2 = 1 Gewichte aus einfachen Regressionen : 1.5 (X1 ) , 5/9 (X2 ) Manchmal ändern sich auch Vorzeichen ( Na und ? ) Die aufgeklärte Varianz ist nicht additiv ? Im Beispiel : Multipel aufgeklärte Varianz : 17 ( von 25 ) − Einfach aufgeklärte Varianzen : 9 ( X1 ) , 25/9 = 2.777 ( X2 ) Entsprechend : Determinationskoeffizienten sind nicht additiv ? Im Beispiel : R2 : .68 − Einfache Determinationskoeffizienten : .36 ( X1 ) , 1/9 ( X2 ) 4 Hier ist die durch beide Variablen aufgeklärte Varianz größer als die Summe der einzeln aufgeklärten Varianzen − 1.5 ( Na und ? ) QM1_16 300 → Verhältnisse bei korrelierten Prädiktoren β -Gewichte sind nicht gleich den Korrelationen ? Im Beispiel : β -Gewichte : .8 , .6 − Korrelationen : .6 , 1/3 = .333 4 Gelegentlich auch Diskrepanz in den Vorzeichen 4 Bisweilen sind β -Gewichte auch > 1 oder < −1 − ( Na und ? ) 4 Möglicher Grund dafür , dass β-r-Diskrepanzen ( z.B. verschiedene Vorzeichen ) als unangenehm erlebt werden : − Bedürfnis , beides als Indikator für ‚ Zusammenhang ‘ zu interpretieren → Andererseits : Wem r nicht passt , dem bleibt noch β ... B ‚ Merkwürdigkeiten ‘ verschärfen sich bei hohen Prädiktorkorrelationen ‚ Multikollinearität ‘ B Unangenehm dabei auch : Lösungen werden ‚ instabil ‘ − Kleine Änderungen in Daten können zu großen Änderungen in den Gewichten führen 1.5 QM1_16 301 → Interpretation der Regressionsgleichung → Die Regression liefert die optimale Vorhersage → Fertig → Andererseits : − Die Form der Regressionsgleichung X Ŷ = bj Xj + a fordert zu weitergehenden Interpretationen geradezu heraus → Etwa : Beschreibung von Mechanismen ( kausal ? ) − ( Die sind dann aber denkbar primitiv ) Genauer vielleicht : Die Xj ‚ beeinflussen ‘ Y − Regressionsgewichte zeigen die Stärke der Einflüsse ( ?? ) → Zu solchen Interpretationen besteht ( bisher ) kein Anlass 1.5 QM1_16 302 → Möglicher Hintergrund für weitergehende ‚ Interpretation ‘ → Glaube an ein Modell : − Die Xj ‚ beeinflussen ‘ in der Tat Y − Einflüsse in Form der Regressionsgleichung − also : ‚ linear ‘ und ‚ additiv ‘ − ‚ wahre ‘ Gewichte sind allerdings unbekannt − Alle wesentlichen Einflüsse sind im Modell erfasst − Weitere Einflüsse sind jedenfalls ‚ unabhängig ‘ von ihnen − Sie machen den ‚ Fehler ‘ aus − Zusätzlich : gewisse technische Voraussetzungen B Glaube an das Modell ist außerstatistisch zu rechtfertigen → Wenn das Modell stimmt , so gilt : − Die Regressionsgleichung ‚ schätzt ‘ die ‚ wahre Gleichung ‘ − → − in gewissem Sinne sogar optimal Das heißt : Die bj sind ( gute ) Schätzer der ‚ wahren Gewichte ‘ 4 Die bj liefern dann in der Tat Hinweise auf Einflüsse B Inferenzstatistik wird benötigt 1.5 QM1_16 303 → ‚ Atheoretische ‘ Fragen → Auch ohne den Glauben an ein Modell können sich pragmatische Fragen stellen ? Beispiel : → ? 4 − → Ziel : Zukünftige Vorhersagen mit der Regressionsgleichung Xj : Abinoten und Testergebnisse , Y : Studienendnote Voraussetzung hier : ‚ Verhältnisse bleiben so wie in der Stichprobe ‘ Mit weniger Prädiktoren wird die Vorhersage einfacher − Weniger Daten sind zu erheben − Einfachere Rechnung ? − → ? Kann man Prädiktoren weglassen ? Jedenfalls ohne die ‚ Vorhersagegüte ‘ deutlich zu mindern ? Problem : Beurteilung der ‚ Nützlichkeit ‘ von Prädiktoren Sind Regressionsgewichte hier nützlich ? 4 Bei solchen Fragen ist gelegentlich ein ziemlich merkwürdiger Einsatz der Inferenzstatistik zu beobachten 1.5 QM1_16 304 → ‚ Interpretation ‘ der Regressionsgewichte → Gelegentlich Fragen der Art : ? Kann man die Regressionsgewichte interpretieren ? Wie ? ? Was soll das denn heißen ? B Generell : Was ist bei derartigen Formulierungen eigentlich mit dem Wort ‚ interpretieren ‘ gemeint ? → Unproblematisch ist jedenfall folgende ‚ Interpretation ‘ : Sind zwei Konstellationen von Prädiktorwerten gegeben − die sich im j-ten Prädiktor um 1 unterscheiden − sonst jedoch nicht → so unterscheiden sich die zugehörigen Vorhersagen um bj → Konkret : − Die beiden Konstellationen : x11 , . . . , xm1 und x12 , . . . , xm2 − Bedingungen : xk1 = xk2 für k 6= j , xj2 = xj1 + 1 Unterschied der zugehörigen Vorhersagen ŷ1 und ŷ2 : ! ! X X ŷ2 − ŷ1 = bk xk2 + a − bk xk1 + a k = X = X k bk xk2 − k X k bk xk1 = X (bk xk2 − bk xk1 ) k bk ( xk2 − xk1 ) = bj ( xj2 − xj1 ) = bj · 1 = bj k 1.5 QM1_16 305 ‚ Interpretation ‘ von bj → Unterscheiden sich zwei Konstellationen von Prädiktorwerten um 1 in Xj und sonst nicht , so unterscheiden sich die zugehörigen Vorhersagen um bj Analog allgemeiner für beliebiges c : → Unterscheiden sich zwei Konstellationen von Prädiktorwerten um c in Xj und sonst nicht , so unterscheiden sich die zugehörigen Vorhersagen um bj c Bisherige ‚ Interpretation ‘ sprachlich etwas ungelenk Griffiger wäre : → Ändert sich Xj um 1 , und bleiben die anderen Prädiktoren unverändert , so ändert sich die Vorhersage um bj B − Problem : Einladung zu kausalen Fehldeutungen Etwa : bj beschreibt die Größe des Einflusses von Xj 4 Allerdings : − Zulässig kann eine solche Deutung sein bei Richtigkeit eines entsprechenden Modells ( mit allen seinen Voraussetzungen ) − 1.5 Im Folgenden ( nach dieser Warnung ) : Verwendung der griffigeren Formulierung QM1_16 306 → Vergleich von Gewichten Einfluss-Assoziationen legen Gedanken nahe wie : − Je größer das Gewicht bj , um so relevanter / einflussreicher / ... ist Xj Vergleich der ‚ Bedeutsamkeit ‘ von Prädiktoren über Vergleich der Größe ihrer Gewichte ( ? ) ? − Beispiel : Vorhersage der Weitsprungleistung Y Prädiktoren : Beinlänge X1 und Muskelkraft X2 Vorhersagegleichung vielleicht : Ŷ = .8 X1 + 1.5 X2 + 3 − → Einheiten dabei : Y , X1 : m , X2 : kp Hier spielt X2 eine wichtigere Rolle als X1 Umskalierung : X2 wird jetzt in p gemessen Umschreiben der Vorhersagegleichung : Ŷ = .8 X1 + .0015 X2 + 3 → Nun ist auf einmal X1 viel wichtiger ??? → Naiver Vergleich von Gewichten ist Unsinn 1.5 QM1_16 307 → ‚ Interpretation ‘ von β -Gewichten Die b -Gewichte ändern sich bei Skalenänderungen Daher : Zu Vergleichen nicht gut geeignet → − (?) Möglicher Ausweg : Übergang zu ausgezeichneten Skalen durch Standardisierungen → Wähle als ‚ Skaleneinheit ‘ also eine Standardabweichung Statt ‚ Standardabweichung ‘ griffiger : ‚ Standardeinheit ‘ ? Um wieviel ändert sich die Vorhersage , − wenn sich Xj um eine Standardeinheit ändert ( von Xj ) − ( und die anderen Prädiktoren gleich bleiben ) ? Änderung von Ŷ dann um bj SXj Das sind bj SXj /SY Standardeinheiten von Y → Also : βj Standardeinheiten von Y → ‚ Interpretation ‘ von βj : → Ändert sich Xj um eine Standardeinheit ( von Xj ) , und bleiben alle anderen Prädiktoren gleich , so ändert sich Ŷ um βj Standardeinheiten ( von Y ) 1.5 QM1_16 308 Sind die βj ‚ nützlicher ‘ als die bj ? → Kommt drauf an → Die βj können nützlicher sein , − falls die Skalierungen der Xj ohne Zusammenhang sind − und die Standardeinheiten ‚ natürliche Einheiten ‘ sind Standardeinheit ist ‚ natürlich ‘ : − z.B. bei zufälligem Ziehen aus ‚ natürlicher Population ‘ − spiegelt dann eine ‚ natürliche Schwankung ‘ von Xj wider Standardeinheit ist nicht ‚ natürlich ‘ : − z.B. bei willkürlicher Variation von Xj in einem Experiment Gelegentlich auftauchende Formulierung : − Im Gegensatz zu den b-Gewichten sind die β-Gewichte interpretierbar Formulierung unklar und interpretationsbedürftig − gemeint wohl im Sinne der ‚ Interpretation ‘ der βj Außerdem : Formulierung viel zu undifferenziert → 1.5 Typisches Beispiel für Vernebelung QM1_16 309 Interpretation von Gewichten ? Sind Gewichte ‚ interpretierbar ‘ hinsichtlich ihrer Größe − als Indikatoren der ‚ Bedeutsamkeit ‘ der Prädiktoren ? − sind sie untereinander in dieser Hinsicht vergleichbar ? → Kommt drauf an Beim Glauben an ein Modell mit allen Voraussetzungen : − womöglich ja b oder β ? ? − Kommt drauf an Bei der atheoretischen Bestimmung einer optimalen Vorhersage − B eher nicht Gerade bei starker Multikollinearität : → Bei Hinzufügung oder Wegnahme von Prädiktoren können sich Gewichte drastisch ändern − Von stark positiv zu stark negativ − Von 0 oder praktisch 0 zu sehr groß − Oder umgekehrt → Sind Gewichte dann überhaupt noch ‚ ernstzunehmen ‘ ? 4 Trotzdem vielleicht brauchbar als Anregung für ein Modell 1.5 QM1_16 310 → Gewichte und Korrelationen Beide in gewisser Weise Indikatoren für ‚ Zusammenhang ‘ Bei stark korrelierten Prädiktoren : − Oft widersprüchliche Hinweise ? Im Beispiel : β1 = .8 , rX1 ,Y = .6 B Manchmal auch unterschiedliche Vorzeichen ? Was soll man ‚ ernstnehmen ‘ ? Beim Glauben an ein Modell ( mit allen Voraussetzungen ) − Gewichte haben inhaltliche Bedeutung → Korrelationen womöglich eher zweitrangig Ohne ein Modell − Gewichte sind oft nur Mittel zum Zweck − inhaltlich womöglich von zweifelhaftem Wert → Hier sind eher Korrelationen relevant B Schwammigkeit des Begriffs ‚ Zusammenhang ‘ 1.5 QM1_16 311 → ? − → ? Polynomiale Regression Sind alle ‚ Zusammenhänge ‘ ‚ linear ‘ ? Natürlich nicht Ziel : Auch ‚ nichtlineare ‘ Zusammenhänge ‚ beschreiben ‘ Beispiel : Erregung X und Leistung Y − Leistung ist bei mittlerer Erregung hoch − bei niedriger und hoher Erregung niedrig ? Mögliche Datensituation Y .. ........ ....... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .................................................................................................................................................................................................................. qq q qqqq q q qq qqq qq q q q qqqqqqqqqqqqqqqqqqqqqqqqqq qqqqqqqqqqqqqqq q q qqq qq q q q qqq qq q q qqqqqqqq q q qq qqqqq qqqqqqqqq qq qqqq q q qq q qq q qqq qq qq qqqq qq qqqqq qq q q qq q qq q X ‚ Umgekehrt U-förmiger Zusammenhang ‘ Form der Punktwolke parabelähnlich → 1.5 Vorhersagegleichung vielleicht in Form einer Parabelgleichung Quadratische Regression QM1_16 312 → Quadratische Regression ♣ Es liegen Daten in Variablen X und Y von n Vpn vor − Punktwolke erinnert an Parabel − Oder : Theorie legt parabelförmigen Zusammenhang nahe → − Ziel : Sage Y möglichst gut vorher jetzt durch Gleichung der Form y = a x2 + b x + c Möglichst gut : Wieder im Sinne der kleinsten Quadrate → − ? Lösung : X 2 als weiterer Prädiktor dann multiple Regression Mögliche Originaldaten und Daten mit zusätzlichem Prädiktor Vp 1 2 3 .. . X 2 5 4 .. . Y 3 3 6 .. . Vp 1 2 3 .. . X X2 2 4 5 25 4 16 .. .. . . Y 3 3 6 .. . → Multiple Regression von Y auf X1 : = X und X2 : = X 2 4 Gewichte : b für X1 = X , a für X2 = X 2 − 1.5 additive Konstante : c QM1_16 313 → Maximum ? Nach erfolgreicher Regression vielleicht interessant : − ? − Wo ist die Vorhersage maximal ? Bei welcher Erregung wird maximale Leistung vorhergesagt ? Wie groß ist dies Maximum ? Kurvendiskussion → Ergebnis : − y = a x2 + b x + c hat Extremum in x = −b /(2 a) − Wert von y dort : −b2 /(4a) + c − Maximum für a < 0 , Minumum für a > 0 Y −b2 /(4a) + c .. ........ ....... .... ... ... ... ... ... ... ... ..................................................................................... ..... ... ... . ..... ..... ... ... .... ..... ... ... .. ... ... ... . . ... ... . . . . . ... ... . ... ... . . ... . ... .. . . ... ... .. . . . ... ... .. .. . . ... ... . .. . ... . ... .. .. ... . . ... ... . .. . . ... . ... .. . . ... ... . .. . . ... ... . .. . ... ... . . .. ... . . ... ... .. .... ... ... . . . . ... ... ... ... .... ... .. ... ... ... .. ... ... ... ... ... ... ... ... .. ... ... .................................................................................................................................................................................................................... . ... . ..... ... .... ... .. ... ... y = ax2 + bx + c −b/(2a) 1.5 X QM1_16 314 → Polynomiale Regression Verallgemeinerung : − Vorhersage von Y jetzt durch Gleichung der Form y = ak xk + ak−1 xk−1 + . . . + a1 x + a0 4 Vorhersage also durch Polynom vom Grad k → Vorgehen völlig analog zur quadratischen Regression Einführen von X k , X k−1 , . . . , X 2 als weitere Prädiktoren Multiple Regression von Y auf X k , X k−1 , . . . , X 2 , X → − Zahl der Prädiktoren jetzt k Weitere Verallgemeinerung : − Vorhersage mit noch allgemeineren Funktionen − Statt / neben Potenzen von x auch zugelassen : − z.B. sin(x) , cos(x) , log(x) , . . . → 1.5 Vorgehen völlig analog QM1_16 315 → Moderatormodelle ♣ ( Theoretische ) Vorstellung : − X1 ‚ beeinflusst ‘ Y − jedoch unterschiedlich je nach Wert von X2 X2 dann : Moderator ? Y : Hilfsbereitschaft , ( linear ) – bis auf ‚ Fehler ‘ X1 : Stimmung , X2 : Vermögen Illustration ( ohne ‚ Fehler ‘ ) ..... .......... ... .... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ................ ... ................. ... ................. ................. ... ................. . . . . . . . . . . . . ... . . . . ...... ... ............................... .................. ................. ... . ................. . . . . . . . . . . . . . . . . . . ........... .... ................. .... .......................................................................................................................................................... Y ..... .......... ... .... ..... .. ....... ....... ... ....... . . . . ... . . ...... ... ....... ... ....... ....... ... ....... . . . . ... . . ....... ... ....... ... ....... ....... ... ....... . . . . ... . . .. ... ....... ....... ... ....... ... ............ ........ . ...... ....... . ....... .... ....... ... ....... . . . . . . ... . ....... ... ....... . . . . . ... . .... . . . . . ... . .... . . . . . ... . .... . . . . . . ... . ....... ... ... ... ... .... .. ... ........................................................................................................................................................... Y X1 X2 klein X1 X2 groß B Auch die Steigung kann sich ändern ? Reicht Modell der multiple Regression auf X1 und X2 ? 1.5 QM1_16 316 → ? Modellierung der ‚ Moderatorwirkung ‘ Reicht Regression von Y auf X1 und X2 ? Vorhersagegleichung : y = b1 x1 + b2 x2 + a = b1 x1 + ( b2 x2 + a ) Bei jeweils festem x2 : − y ist lineare Funktion von x1 − Jedoch : Steigungen sind alle gleich ( Geraden parallel ) Leichte Modifikation Wohl simpelste Möglichkeit : X1 X2 als weiterer Prädiktor Vorhersagegleichung dann : y = b1 x1 + b2 x2 + b3 (x1 x2 ) + a = ( b1 + b3 x2 ) x1 + ( b2 x2 + a ) Bei jeweils festem x2 : − y ist lineare Funktion von x1 − Steigung ( b1 + b3 x2 ) ändert sich mit x2 − Additive Konstante ( b2 x2 + a ) ebenso → 1.5 Das reicht ja dann wohl QM1_16 317 → Vorgehen bei Untersuchung von ‚ Moderatorwirkungen ‘ Multiple Regression von Y auf X1 , X2 und X3 := X1 X2 Inferenzstatistische Prüfung : ? Unterscheidet sich b3 ‚ signifikant ‘ von 0 ? → Wenn ja , wird X2 als Moderator betrachtet → Implikationen des Modells − Für jeden festen Wert x2 von X2 ist Vorhersage linear in X1 − Die Geradensteigungen hängen linear von x2 ab − Die additiven Konstanten hängen linear von x2 ab − Alle Geraden gehen durch den Punkt ( x1 , y ) = ( −b2 /b3 , −b1 b2 /b3 + a ) . . ..... ....... ..... ......... ..... ..... ... . . . .... . .... ......... ... . ..... ... ..... .......... ..... .. ... .. ..... .......... . . ...... . ... . ...... ... ........ . . . . . . ... . . . ... ........ ........ . . . ... . .... ..... .......... ...... ... ...... . ..... ..... ... ..... ...... ...... ............. ..... ...... ...... .. ... ..... .......... ........... ........... . ..... . . . ... . . . . .. ... .. ... ...... ... ..... ..... ....... ....... ....... ..... ...... ...... ....... ....... ... ............... .......... ............ ............. . .... . . . ... . . . . .. ... .. ... ... ....... ... ..... ..... ...... ....... .............. ........ ..... ...... ...... ....... ... ......... ... .......................... ............ ............. ........ . . . . . . ... . . ... . . . . . . . .. .. . . . . ........ ... .......................................... ............. ................ ........... ........... .................................................... ............... ........... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...................... ....... ......... ................... ...................... ....... ........ ... ................................. ......... ............ ............................................ ............. ........................................................................................ . . . . . . .................................................................... . . . . .. ........................ ......................................... .................... . ................................... . .... .............................................................................. ... . . . . . . . . . . ... ................................................................ ... ... .................................................... . ... . ....................................... . ... . ............................... . ........................................................................................................................................................ . .................... .... ............ .... Y −b1 b2 /b3 + a −b2 /b3 − 4 1.5 X1 Geraden für 7 Werte von x2 mit jeweils gleichen Abständen ( Naheliegende Frage : Ist das alles plausibel ? ) QM1_16 318 → Partialkorrelation ♣ Mögliche Situation : 3 Variablen X , Y , Z − Negative Korrelation zwischen X und Y für festes z − Positive Korrelation zwischen X und Y insgesamt ? − Hypothetisches Beispiel : X : Deutschleistung , Y : Matheleistung , Z : Klasse Y .. ....... ........ .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ......................................................................................................................................................................................................................................................... q 1 qq qq q q q q qqq qqqqq q q q qqqqqqqqqq qq q Z = qq q qqqqqqqqqqqqqq q q qqq q qq q q qqq q qqqqqqqqqq q qq qq q qqq q qqq q q qq q qq q qq q q q q qqqq qq q q q q qqqq q q q qq qq qqqqqqqq q qqq qqqqqq qq q qq q q qq q q q q q q Z = 6 8 X 1 r = .5 Eindruck : − ? ‚ Wahrer ‘ Zusammenhang wird durch r nicht korrekt erfasst Analoge ähnliche Beispiele : − Großes r für festes z , Unkorreliertheit insgesamt − r = 0 für festes z , r = .9 insgesamt − etc. etc. 1.5 QM1_16 319 → Ziel : Ermittung der ‚ wahren ‘ Korrelation → Vielleicht ist es möglich und zielführend , − den ‘ Einfluss ‘ von Z ‚ herauszurechnen ‘ − und dann die ‚ bereinigten ‘ Variablen zu korrelieren ‚ Herausrechnen ‘ des ‚ Einflusses ‘ mittels Regression Die ‚ bereinigten ‘ Variablen wären dann die Residuen B Sinnvolles Resultat ergibt sich dabei wohl nur dann , − wenn ‚ Einfluss ‘ von Z auf X und Y etwa linear ist → Vorgehen also : Regressionen von X und Y auf Z Interessant sind nun die Residuen → 4 → 1.5 Diese sind zu korrelieren Jetzt werden also die früher uninteressanten Fehler wichtig X̃ , Ỹ : Fehler bei Regressionen von X und Y auf Z Ziel : Formel für das Endergebnis QM1_16 320 → Durchführung der Rechnung Regressionen : X̂ = bX Z + aX , Gewichte dabei : bX = SX rXZ , SZ Ŷ = bY Z + aY bY = SY rY Z SZ Die jetzt interessanten Residuen : − X̃ = X − X̂ = X − bX Z − aX − Ỹ = Y − Ŷ = Y − bY Z − aY Kovarianz : KovX̃,Ỹ = KovX − bX Z − aX ,Y − bY Z − aY = KovX,Y − bX KovZ,Y − bY KovX,Z + bX bY KovZ,Z SX = rXY SX SY − rXZ ( rY Z SY SZ ) SZ SY SX SY − rY Z ( rXZ SX SZ ) + rXZ rY Z SZ2 SZ SZ SZ = rXY SX SY − SX SY rXZ rY Z − SY SX rY Z rXZ + SX SY rXZ rY Z = rXY SX SY − SX SY rXZ rY Z = SX SY ( rXY − rXZ rY Z ) 1.5 QM1_16 321 Fortsetzung der Rechnung SX̃ : Standardschätzfehler bei Regression von X auf Z q 2 SX̃ = SX 1 − rXZ SỸ : analog SỸ → q = SY 1 − rY2 Z Korrelation von X̃ und Ỹ : rX̃ Ỹ = = KovX̃,Ỹ SX̃ SỸ SX SY ( rXY − rXZ rY Z ) q q 2 SX 1 − rXZ SY 1 − rY2 Z = q ♦ Die Zahl rXY − rXZ rY Z q 2 1 − rXZ 1 − rY2 Z rXY − rXZ rY Z q rXY.Z := q 2 1 − rXZ 1 − rY2 Z heißt auch Partialkorrelation von X und Y ohne Z 1.5 Sprechweise : Z wird herauspartialisiert QM1_16 322 ? Beispiel − Daten aus dem Beispiel zur multiplen Regression − Variablen passenderweise umbenannt : − Statt X1 , X2 , Y jetzt X , Y , Z Korrelationsmatrix ( Reihenfolge : X , Y , Z ) : 1 −1/3 3/5 1 1/3 −1/3 3/5 1/3 1 → Partialkorrelation : rXY.Z = rXY − rXZ rY Z q q 2 1 − rXZ 1 − rY2 Z (−1/3) − (3/5) (1/3) p = p 1 − (3/5)2 1 − (1/3)2 (−1/3) − 1/5 p = p 16/25 8/9 √ − 8/15 −1 − 2 √ = √ = = 2 (4/5)(2/3) 2 2 = −.7071 1.5 QM1_16 323 → Bedeutung der Partialkorrelation B Unklar : − Erfüllt die Partialkorrelation die motivierenden Wünsche ? Erläuterung der Bedeutung : − Darlegung des Verfahrens 4 Lage womöglich etwas unbefriedigend → Geometrische Interpretation : Betrachte Punktwolke im X-Y -Z-Koordinatensystem Konstruiere ‚ Regressionsgerade im Dreidimensionalen ‘ z 7→ ( bX z + aX , bY z + aY ) ‚ Drehe ‘ Gerade senkrecht zur X-Y -Ebene − Datenpunkte sollen ‚ folgen ‘ Betrachte nun die Situation von oben ‚ Projiziere ‘ also die ‚ neuen ‘ Datenpunkte auf X-Y -Ebene Ergebnis : Punktwolke in X-Y -Ebene → 1.5 Partialkorrelation ist Korrelation dieser Punktwolke QM1_16 324 → Bedeutung der Partialkorrelation Gelegentlich hört man folgenden Spruch : − Die Partialkorrelation ist die Korrelation von X und Y bei konstant gehaltenem Z → ( Schön wär’s ) Versuch einer Interpretation Dazu besondere Datensituation : − Z nimmt nur endlich viele Werte an − Für jeden dieser Werte : mehrere Beobachtungen − Für jeden Wert dann : eine Korrelation von X und Y ? Beispiel : X 1 3 5 Y 2 4 3 Z 1 1 1 X 9 7 5 Y 2 4 3 Z 2 2 2 X 4 5 6 Y 5 8 5 Z 3 3 3 Korrelationen von X und Y für Z = 1, 2, 3 : .5, −.5, 0 B Die Korrelation von X und Y bei konstantem Z gibt es hier gar nicht 4 Ist der Spruch dann sinnvoll ? rXY.Z = −.39 ? 1.5 ( Was sagt uns das ? ) QM1_16 325 Versuch einer Interpretation Voraussetzung ab jetzt : − Die Korrelationen für verschiedene z sind alle gleich ? Ist dann die Partialkorrelation gleich dieser Korrelation ? ? Beispiel : X Y −2 −1 0 1 2 0 Z 1 1 1 X −3 −1 1 Y 0 2 1 Z 2 2 2 X Y −1 −2 1 0 3 −1 Z 3 3 3 Korrelationen von X und Y für Z = 1, 2, 3 : .5, .5, .5 B Hier gibt es die Korrelation bei konstantem Z Partialkorrelation : .09 → Partialkorrelation ist nicht Korrelation bei konstantem Z → Betrachtung der Zentroide der Teilgruppen ( dreidimensional ) Zentroide : ( 0, 0, 1 ) , ( −1, 1, 2 ) , ( 1, −1, 3 ) → Zentroide liegen nicht auf einer Gerade 4 Das spricht gegen ‚ Linearität ‘ der Einflüsse B Partialkorrelation passt hier qua Konstruktion nicht 1.5 QM1_16 326 → ? Versuch einer Interpretation Noch ein Beispiel : X Y −20 −1 0 1 20 0 Z 1 1 1 X −1 1 3 Y 0 2 1 Z 2 2 2 X 0 2 4 Y 1 3 2 Z 3 3 3 Korrelationen von X und Y für Z = 1, 2, 3 : .5, .5, .5 B Hier gibt es die Korrelation bei konstantem Z → Betrachtung der Zentroide der Teilgruppen ( dreidimensional ) Zentroide : ( 0, 0, 1 ) , ( 1, 1, 2 ) , ( 2, 2, 3 ) → Zentroide liegen auf einer Gerade Partialkorrelation : .34 → Partialkorrelation ist nicht Korrelation bei konstantem Z → 2 Betrachtung der Varianzverhältnisse SX /SY2 2 Varianzverhältnisse SX /SY2 für Z = 1, 2, 3 : → 1.5 400 , 4 , 4 Varianzverhältnisse sind nicht gleich QM1_16 327 → Versuch einer Interpretation ? Ein letztes Beispiel : X Y −2 −1 0 1 2 0 Z 1 1 1 X −1 1 3 Y 0 2 1 Z 2 2 2 X 0 2 4 Y 1 3 2 Z 3 3 3 Korrelationen von X und Y für Z = 1, 2, 3 : .5, .5, .5 B Hier gibt es die Korrelation bei konstantem Z → Betrachtung der Zentroide der Teilgruppen ( dreidimensional ) Zentroide : ( 0, 0, 1 ) , ( 1, 1, 2 ) , ( 2, 2, 3 ) → Zentroide liegen auf einer Gerade 2 Varianzverhältnisse SX /SY2 für Z = 1, 2, 3 : → 4, 4, 4 Varianzverhältnisse sind gleich Partialkorrelation : .5 → 1.5 Endlich klappt es mal QM1_16 328 → Interpretation der Partialkorrelation → Damit der Spruch zur Partialkorrelation sinnvoll und richtig ist müssen offenbar einige Bedingungen erfüllt sein 4 In der Tat gilt in der untersuchten Datensituation : − → − Wenn − die Korrelationen für alle z gleich sind − die Zentroide auf einer Gerade liegen − die Varianzverhältnisse gleich sind und und dann ist Partialkorrelation = Korrelation bei konstantem Z 4 Bei ähnlich starken Voraussetzungen gilt ein entsprechender Satz auch auf theoretischer Ebene 4 Derartige Voraussetzungen werden meistens gemacht → Dann stimmt der Spruch ja doch wieder ! 1.5 QM1_16 329 → Vektorrepräsentation → Vorübungen Notationen P Q : Strecke von P nach Q ⊥ : senkrecht k : parallel ∠ : Winkel → Eine Frage zu ( orthogonalen ) Projektionen ♣ Situation : Gegeben sind : Ebene E , darin Gerade g , Punkt P tP .......................... .................. ........ .................. ........ ................... ........ .................. . . . . . . ...... . . . . . . . . . . . ............ . . . . . . . . .......................... . . . . . . . . . ............ ........ ............ . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ ... ....... . . . . . . ........................ . ........ . . . . . ........ ........ ............ ........ ........ ............ . . . . . . . ........ . ........ . . . ........ . ........ . ........ . . . . . . . . ........ ........ ....... . . . . . . . . ........ . ........ . . ....... . . . ........ . ........ . . . . . . . ........................ ........ ....... ... ........ .......... ........ .................. . . . . . . . . . . . . . . . . ........ . ............ . . . . . . . ........ . . . . . . . . . . ........ ................. ........ .................. ........ ................... ........ .................. ........ .................................... .... E → g Aufgabe : Lot von P auf g Erste Möglichkeit : direkt Vorschlag : Erst Lot auf E , dann von dort Lot auf g ? 1.5 Gleiches Ergebnis ? QM1_16 330 Situation tP ............................. .................. ........ ................... ........ .................. . . . . ........ . . . . . . . . . . . . . .... .. ................... .................... .................. . . . . . ........ ........... . . . . . . . . . . . . . . . . . . . ........ ........... ....... . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . .............. ........ . . . . ........ . . . . . ........ . ........ ....... . . . . ........ . . . . . . . ........ ........ ....... . . . . . . ........ . . . . . ........ ....... ........ . . . . . . ........ . . . . . ........ ........ ........ . . . . . . ........ . . . . ........ ... ........ ........ ...................... ........ ........ ... ........ ................... ........ . . . ............ ... . . ........ . . . . . . . . . . . . . . . ........ ............ . . . . . . . . . . . . . . ........ . . . .. ........ ................... ........ .................. ........ ................... ........ ..................................... .... E g Zweimal Lote fällen von P auf g tP tP ... .. ... ..... ..... ... .... . . ... . . .... ... . . . .. ... . . . . ... .... . . . .. .. . . . . . . . . ................... ............ ............ ................ . . . . . . . . . . . . . . . . . . . . . . . . . . ..... ........ ........... . ............ ...... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... ........... . . . . ........ ... ............ ............ . . . . . . . . . . . . . ...... . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . . ........ .... .... .... ... .......................... .. . ................... ................... ........ ..... ........... ............... .................. .................. . . . . . . . . . . . . . . . . . . ....... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ ........ .. ....... ........... ........... ...... ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . .. ... ............. ............. ........ ..... ............ ........ ............ ........ ........ ... ........ .... ...................... ........ ............ . . . . . ........ . . . . . . . ........ . . . . . . . . . ........ ........ ... ................. ........ ...... . . . ........ . . . . . . . . . . . . . . . . . . . . . . . ........ ........ ........ ... ........ .................... ..... . . . . . . . . . . . . ........ . . . . . . . . . . . ........ . . . . . . . . ........ ... ............ ........ ....... ........ ........ . . . . . ........ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ............ ........ ........ ........ .. .. ... ........ ............ ........ ........ ...................... ........ ...................... ........ ............ ... ....... ........ ........ ...... ....... ........ ........ .......... . . . . . . . . .................. . . . . ........ . . . . . . . . . ........ ................. . . ............ . . ........ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ ........ ........... . ............ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . . . ........ .. ....... ........ ........ ................... ................... ........ .................. ........ .................. ........ ................... ........ .................. ........ .................................... .......................................... .... L1 E t L12 E g t g links : direkt - Ergebnis : L1 rechts : in zwei Schritten ? → 1.5 0 tL2 - Ergebnis : L02 − erst auf E − dann von L02 auf g - Ergebnis : L2 L1 = L2 ? Ja ! QM1_16 331 • L1 = L2 E 0 : Ebene ⊥ g durch P o n − Schnittpunkt : L1 − Schnittgerade : h (h⊥g) ............... ............... ............ ............ ... ... ............ ............ ............ ............ ... ... ............ ............ ... ... ............ ............ ............ ............ ... ... ............ ............ . ... . ............ ............ ............ ............ ... .... ............ ............ . ... . ............ ............ .. ............ ............ ... . . ............ ............ . ... . ............ ............ .. ............ ............ ... . ......... ......... .. ... . .... .... ... .... ... ... ... ... . . . . . . . ... ... . . . . .. ...... . . . . . . . . . . . ... . . ... . . .... .... .... . . . . . . ... . . . . ... . . .. .. .. . . . . . . . . . ... . . . ... ... . . .... .... . . . . . . . ... . . ... . . ... . . .. .. . . . . . . . . . ... . . . ... ... . . .... .... . . . . . . ... . . ... . . . ... . .. .. . . . . . . . . . ... . . . . ... ... . . .... .... . . . . . . ... . . ... . . ... . .. .. . . . . . . . . . ... . . . . ... . ... . . .... .... . . . . . . ... . . ... . . ... . . .. .. . . . . . . . . . . . . . . ... ... . ... ... ................ ................ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . ............ ............ ....... ... ........... .. .. ........... . . . . . . . . . . . . . . . ............ . . . . . . . . . ........................ . . . ... ............ . . . ............ ........ ... .. . ............ ............ ... . ........ . . ........ . . . . . . . . . . . . . . ... . . . ............ ............ ........ ........ ... ........ ........ .. . .. . . ............ ........ . . . . . . . . . . ........ . . . ... . . . ........ ... ........ ............ .... ... . ................. ........ . . . . . . . . . . ..................... . . . . . . ... . . . . ........ ........ ... ........ . ....... ........................ ....... ........................ . . . . ........ ............ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . ................ ................ ... ........ ......... ........ . ......... ....... ....... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . . . . . ... ........... . . . ................ ................ ........ ... . . ............ .................. ........ ........................... .. . ................ . . . . . . . . . . . . . . . .... . ................ .. ...... ......... ...... . ........ . . ................ . . . . . . . . . . . . . . . . . .. . . . . . . . . . ............ ........ ........ . . ...... ................... ............ .................. . . . . . . . . . . . . . . . . . .. . . . . ............ . . ........ . . . . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . ........ ............ . . ............ ... ........... ........... ....... ........ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . ......................... ......................... ........ ........ . ....... . . . . . . . . . . . . . . ........ . . . . . . . . . . . . . . . . . .... . . . . . . . ........ .. ..... ........ ............. ............ .................. ............................. ................... .... .... ........ ............ .................. ............ ........ .................. ........ ............ ................... ... ... ............ ........ ..................................... ............ ...................................... ............ ........... ... ... ............ ............ ............ ............ ... ... ............ ............ . . ... ............ ............ ............ ............ .... ... ............ ............ . . ... ............ ............ .. . ............ . . . . ... ............ . ............ . . . . . . . . ... ............ ............ .. ............ ............ . ... ............ ............ ... ............... ........... . E0 E0 tP h L1 E tP E t g h L1 t g g0 → tQ Weiter rechte Abbildung : Lot von P auf h : Fußpunkt : Q g 0 : Parallele zu g durch Q P Q ist ⊥ zu h und g 0 ( wegen g 0 ⊥ E 0 ) P Q ist ⊥ zu E → Q = L02 Wegen g ⊥ h ist L1 Fußpunkt des Lots von L02 auf g → L1 = L2 1.5 QM1_16 332 → Skalentransformationen ♣ Gegeben : − Achse mit Nullpunkt ( 0 ) Richtung und Einheit ( e ) e .. . .................................................... .... .... t ............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... 0 → Hierdurch wird eine Skala etabliert : −3 s −2 −1 0 1 2 3 4 s 5 s .. .. .. .. .. .. .. .. .. .......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... Q ? → − → P Skalenwerte der Punkte P und Q : 4.5 und −3 Bedeutung der Skalenwerte : Abstand zu 0 in e - Einheiten links vom Nullpunkt : negatives Vorzeichen Aufgabe : − Was passiert beim Übergang zu einer anderen Einheit ? .... ... .................................................... .. .. ... .. ............................................................................. ... ... .............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................. t e1 e2 0 1.5 QM1_16 333 Gegeben sind jetzt zwei Einheiten : e1 und e2 .... .. ................................................... ... ... .. . ............................................................................. .... .... t e1 e2 .............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................. 0 Es entstehen zwei Skalen Skala 1 −2 −1 0 1 2 3 4 5 s .. .. .. .. .. .. .. .. . . . . . . . . .................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................. .. .. .. .. .. −1 Skala 2 0 Es gelte : e2 = k e1 → − ? 1 2 3 ( im Beispiel : k = 1.5 ) Gegeben sei Punkt P Skalenwerte : x1 auf Skala 1 , x2 auf Skala 2 Beispiel : Skala 1 −2 −1 0 1 2 3 s 4 P 5 s .. .. .. .. .. .. .. .. .......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... .. .. .. .. .. Skala 2 ? −1 0 1 2 3 Umrechnung x1 ↔ x2 ? Es muss gelten : x2 e2 = x1 e1 x2 ( k e1 ) = x1 e1 → ? 1.5 oder Umrechnungen also : x1 = k x2 ( x2 k ) e1 = x1 e1 und x2 = (1/k) x1 Im Beispiel : x1 = 4.5 und x2 = 3 bei k = 1.5 QM1_16 334 → Allgemeine Koordinatensysteme − Achsen müssen nicht orthogonal sein − Einheiten der Achsen müssen nicht gleich groß sein ...... .............. ............. ... ............. .... .. ................ . . ............... . . . . . . . .. . . . . . . ... . . . .... .. ... ............... .. ............................ . . . . . .. .................. ... .. .. .. .. ... .. . ......... . . . . . . . . .. ... ................. ... . ............. .. .. .. ............. .. ............. .. . . . . . . . . . . . . . . . . ... .. ... .............. ................... .. .............. .... .. .............. . ............... ... ............. . . . . . . . . . . . . . . . . . . . .... ...... ............. .... . ............. ... .. .............. ... ............... .. .............. . . . . . . . . . . . . . . . . ........ ... . . . . . . . . . . . . .... ................. ... ............. .. ............. .......... ................ . ............. . . . . . . . . . . . . . . . . . . . . .. .. ............. ... ............. .... .............. ................. ............. ... . ............. .. ... . .. ........... ... ... . ... ................. . ... ... tP x2 x1 1 1 ? Der Punkt P hat die Koordinaten ( 1.5 , 2 ) ! Achtung : − Ablesen mit Hilfslinien parallel zu den Achsen − − 1.5 an den Endpunkten der Achsenabschnitte Nicht ( ! ) mit Loten auf die Achsen QM1_16 335 → Allgemeine Koordinatensysteme – mit ‚ absolutem ‘ Maßstab Zusätzlich zum Koordinatensystem jetzt : Längenmaßstab ? Beispielsweise hier mit Einheit 1 cm .................. .. ...... . ...... ...... . . . . . .... . . . . . . ...... ...... ...... ...... ...... ...... ...... . ...... . . . . . ...... ...... ...... . ...... ........ ...... ...... ..... ...... ...... ... ...... .......... . . . . . . ... . . . . ...... .. .... ... ...... ...... ........... ...... . ...... . . ... . . . ...... .... . ... . . . . ....... .... ... . . . . . . . . . . . ... ... ........ .... . . . . . . . ...... ...... . ... ...... ................. ... . ...... . . . . ... ...... .... . . . . . . ... . . . .... .... ......... . . . . . . ... . . . . ...... .... . ..... . . . . ...... . ...... .......... ... ...... .... ... ...... . . . . . . . .... .... .. . . . . . ...... .......... . . ...... ...... ... ...... ...... ... ...... ........... ... .......... ... ......... . . . . . . . . ...... .... ...... ... ...... ...... ... ...... ...... ...... ... ...... ...... ............ ... . . . . . . . . . . . . . . ... ........ .... ... ...... ...... ... ...... ...... ...... ...... ... ...... ...... ...... ... . ...... ........... . . . . . .. ...... ... ....... ........... ..... ... ...... ...... ...... ... ...... ...... ...... ..... ...... . . . . . . . . .... ...... ........... ...... .......... ... ...... ..... ...... ...... ...... ...... . . ..... . . . .... . . ...... . .......... . . ...... ......... ...... .......... . . . . . . ...... ....... . . ...... . . .... ...... ...... ...... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...... ...... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... ...... . . ...... . . . .. .. .. .. .. .. .. .. .. .. .. ...... .... . . . . . . . . . . . ......... ... ... ... ... ... ... .. .............. x2 1 tP 1 x1 0 1 5 Skaliere Achsen alternativ mit ‚ absoluter ‘ Einheit ? Umrechnung der Skalenwerte ? Hierzu : 4 k1 , k2 : Achseneinheiten in ‚ absoluten ‘ Einheiten Also : − Einheit von Achse i = ki absolute Einheiten ? 1.5 Hier : k1 = 2 , k2 = 2.5 QM1_16 336 Koordinatenumrechnung : − Achseneinheiten ↔ absolute Einheiten ............ ......... ...... . ...... ...... . . . . . . ...... ...... ...... ...... ...... . . . ...... . . ...... .. ...... ...... ........... ...... ...... ........ ...... ...... .... ..... ...... . . . . . ... . .... .......... ... ...... ...... ........... ... ...... ........... ...... ...... . . . ... . ...... . . .... ...... ... . . . . . ...... ... .... . . . . . . . . . . . . ... ... ....... .... . . . ...... . . ...... ... ...... .......... ...... ... ...... ...... . . . ... ...... .... . . . . . . ... . . . . ... ... ........ . . . . . . . . ... . . . . ...... .... ..... . . . ...... . . . ...... ......... ...... ... ..... ... ..... . . . . . . . . . . . .. .. .... . . . . ...... .......... . . . . ...... ...... ... ...... ...... ... ...... ........... ... ........... ... .. ...... . . . . . . . ...... .... ... ...... ...... ...... ... ...... ...... ... ...... ....... ...... ........... ... . . . . . . . . . . . . . ... ........ .... ... ...... ...... ... ...... ...... ...... ...... ... ...... ...... ...... ... . ...... ........... . . . . . . . .. ...... ... ....... .......... ...... ... ...... ...... ...... ... ...... ...... ...... ..... ...... . . . . . . . . . .. ...... ........... ...... ........... ... ...... ..... ...... ...... ...... ...... . . .... . . . .... . ...... . . ........... . . ...... ......... ...... ........... . . . . . ..... ...... . . . . ...... . .... ...... ...... ...... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...... ...... .. .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... ...... . . . ...... . . . . ... . ... ... . ... . ... ... . .... ...... . . . . . . ......... ... ... ... ... ... ... ............. x2 1 tP 1 x1 0 1 5 k1 , k2 : Achseneinheiten in ‚ absoluten ‘ Einheiten x1 , x2 : Koordinaten in Achseneinheiten a1 , a2 : Koordinaten in absoluten Einheiten → ? Umrechnung : k1 = 2 , a1 = 3 , x1 = 1.5 , xi = (1/ki ) ai k2 = 2.5 a2 = 5 x2 = 2 Sprechweise : − 1.5 und Im Beispiel ( Punkt P ) : − − − ai = ki xi Achsenkoordinaten ( xi ) ↔ absolute Koordinaten ( ai ) QM1_16 337 → ♦ Erinnerung an den Kosinus Definition vereinfacht über Illustration : − .. .. ......... ... .. .. .. . ...... ..... .. .... .. .. . . . ... . .. . . . . . . . ..... . .... . . .... . . . . . . . . .... . . . . . .......... . . . . . . ... .............. . . . . . . ... .. ... . . . . . ... ... . . . . . ... . . ... . . . . ... . . . ..... . . . . . . . . . . . . . . . . . . .. .. .. .. .. . . .. .. ... ... .... ............ .. . .. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. .. . .. y 1 .... ... 1 ..........α ................... cos(α) 1 x Funktionsgraph : ....... ......... ... .. ... .............. . . . . . ...... . . . . . . ........ .......... ...... . . . . ...... . ....... .... . ..... ..... . . . ..... ..... ... . . . . . . . . . . ..... .... ..... ..... ..... .... .... .... .... ... ... ... ... ... ... ... . . . . ... .. .. ... ... ... .... ... ... ... ... ... ........................................................................................................ ... ... ... . . . . . .... .. ... ... ... . ... . . . . . . ... .. .. ... ... ... .... ... .... .... ... .... ..... .... . ..... . . . . . . . . ..... ... ..... ..... ..... ..... ...... ..... ...... ...... ...... ...... ........ ........ ............................... .............. 1 .5 −180◦ B − 1.5 −90◦ −.5 −1 cos(α) α 90◦ 180◦ 270◦ 360◦ ( Lokale ) Umkehrfunktion : arccos ( arcus cosinus ) arccos ist definiert auf [ 0◦ , 180◦ ] QM1_16 338 Kosinus .. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . .. .. .. ... y 1 ......... ..... . ... .. .. . .. ... ...... . ..... . ... .... .. . . . .. ... . . . . . . . . ..... . . ..... . . .... . . . . . . ... . . . . . . .................... . . . . . ... ....... . . . . . ... . ... . . . . ... . . ... . . . . . ... ... . . . . . . .. ... . . . . . . . . . . . . . . . .. . .. .. .. .. .. .. .. .. . . ... ... .... ............ .. 1 ..........α ................... cos(α) 1 x ....... .......... ... .... .. .............. . .. . . . . . . . . ........ ............. ...... . . . . . ....... . ...... ..... ...... . ..... . . . ..... ..... . ... . . . . . . . . ..... .... .... ..... .... .... .... ..... ..... ... ... ... ... ... ... ... . . . . ... . .. ... ... ... .... ... ... ... ... ... ... ... ........................................................................................................ ... . . . . . . .... ... ... ... ... ... ... . . . . ... . . ... ... ... .... ... .... .... ... ... ..... ..... . ..... . . . . . . . . . ..... . .... ..... ..... ..... ...... ..... ..... ...... ..... ...... ........ ...... ........ ................................ .............. 1 .5 −180◦ → −90◦ −.5 −1 cos(α) α 90◦ 180◦ 270◦ 360◦ Nützlich: − cos(0◦ ) = 1 − cos(60◦ ) = .5 − cos(90◦ ) = 0 − cos(180◦ ) = −1 − cos(−α) = cos(α) − cos(180◦ − α) = − cos(α) − Kosinus ist positiv für spitze Winkel, negativ für stumpfe 1.5 QM1_16 339 → Rechtwinklige Dreiecke . ........ . . . . . .... .... . . . .. . ... .... . . . . .. . . . ... b c....... ... . ... . ... . . . . ... . . ...α .. . . . ........................................................... a ∠ ( a, b ) = 90◦ ..... .... ... ... ... ... ... → Pythagoras : a2 + b2 = c2 → Rechtwinklige Dreiecke und Kosinus : a = c cos(α) B Beachte Ähnlichkeit mit Dreieck aus der Definition des Kosinus → Allgemeiner für beliebige α : − Dabei : a auf Gerade mit ausgezeichneter Richtung .......... ... ......... ........ .. ........ c ... ........ b ... ........ ........ ... .... α .. ...................................................................................... a ∠ ( a, b ) = 90◦ .................................... ....... ..... ..... ..... .... ... . . ... .. ... ... .. .. .......................................................................................................................................................................................................................................................................................... .. Vereinbarung : a soll hier negativ sein ( ‚ Skalenwert ‘ ) − Dann gilt wieder : − Außerdem Pythagoras : 1.5 a = c cos(α) a2 + b2 = c2 QM1_16 340 → Vektoren ( vereinfacht ) ♣ Situation : ( ein- , zwei- , drei- , . . . -dimensional ) − Ein Punkt ist als Nullpunkt ausgezeichnet ♦ Vektoren sind Pfeile, die von diesem Punkt ausgehen ? Beispiele von Vektoren ( hier zweidimensional ) : ..... ... .......... ... .... .. ......t........... . . . . . ......... . .......... ...... .... . . . . . . . . . . . . . . ... ....... .. ... . ....... Bezeichnungen von Vektoren : fette Kleinbuchstaben ( x ) → Operationen mit Vektoren Vervielfachen eines Vektors 4 Richtungswechsel bei negativen Vielfachen ? Beispiel : Ein Vektor x sowie 2 x und (−1.5) x : (−1.5) x .................... ... .............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ................... ............... ..t................. x .................. 1.5 2x QM1_16 341 → Operationen mit Vektoren Addition von Vektoren − ? Zweiten Summanden an der Spitze des ersten ansetzen Beispiel ....... .... .. y ....... ..... . . .... . . .... x + y....... .... .. .... ....... ......... .t................ ................... ................... ................. x ....... .......... . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. Differenz von Vektoren : y − x − Entweder : y + (−1) x − Oder : Welcher Vektor ergibt zu x addiert y ? ....... .... ... y − x ...... ...... .... . y .. .... .... .... .... .. ...... −x .t............ ............... ............... ........... x .. ................. .... .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... ... .................. .... .......... .......... .......... .......... .......... .......... .......... .......... .......... .......... ... 1.5 ....... .... ... y − x ...... ...... .... . y .. .... .... .... .... .. ...... .t............ ............... ............... ........... x .. ....... .......... . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. QM1_16 342 Die Addition von Vektoren ist kommutativ ? Beispiel ....... ....... .... .... .... .. y ..... y ....... ...... .... . . .... .... .... . . x + y y + x . . . . . . .... .... .... .... . . .... . . . . . . .... .... ...... .... . . . . . . . . ....... ....... .t.............. .t.............. ................... ................... ................... ................... ................... ................... . . x x ....... .......... . .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ? ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. .. .................. ......... Beide Darstellungen zusammen : ...... .... .. y ...... ..... . .... . . . .... x + y..... .... .. .... ........ .... .... ..t.............. ................... ................... .................... ... x ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. .. .................. ................... .......... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... B 1.5 Beachte das Parallelogramm ! QM1_16 343 Linearkombinationen ♦ Sind x1 , . . . , xn Vektoren und a1 , . . . , an Zahlen, so heißt X ai x i auch Linearkombination der xi mit Koeffizienten ai 4 ? Hier gibt es nichts in der Art einer additiven Konstanten Beispiele von Linearkombinationen ...... .... ... y ...... .... .... .... .... 1.5 x + .5 y .... ....t.................................................................................................... ... .......................... ................... ... ............ ... x ... ... ... ... ... ... (−.5) x − 1.5 y ... ...... ......... .... ... ....... ...... .. ...... .. ....... .. ... . .... .. ...... ....... .. ...... .. ...... .. .. ...... .. .. ...... .. .. .. ...... .. .. .. ...... .. .. ...... .. .. ...... .. .. ...... .. .. .. ...... .. .. ........... .. .. ....... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. . ....... . → ♦ Ad-hoc-Definition der Linearen Unabhängigkeit Linear unabhängig ( l.u. ) heißen − zwei Vektoren , falls sie nicht auf einer Geraden liegen − drei Vektoren , falls sie nicht in einer Ebene liegen 1.5 QM1_16 344 → Linearkombinationen Die Vielfachen eines Vektors x 6= 0 bilden eine Gerade ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ... ..t................. x .................. 4 Gemeint ist genauer : − die Spitzen der Vielfachen von x bilden eine Gerade 4 Es soll die griffigere Sprechweise oben benutzt werden B Die Gerade ist dabei die Gerade , ‚ auf der x liegt ‘ Sprechweise auch : die von x aufgespannte Gerade Analog bei zwei l.u. Vektoren x und y : − Die Linearkombinationen von x und y bilden eine Ebene .................................... ........ ...................... ...................... .......... ...................... ........... ................ ...................... . . . . . . . . . ........... . ......... . . . . . . . . . . ........... ............ . ......... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ......... ......... ...... ............. . . . . . . . . . . . . . . . . . . . . . . ......... . . . . . . . . . . . . . . ......... ...... . .............. . . ......... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ......... ......... ....... . ...................... . . . . . . . . ......... . . . . . . ......... .. ......... ......... ............................ ......... ......... . ........ . . ......... . . . . . . ......... . . ......... ......... ....... . . ......... . . . . . . . . . ......... . . . ......... ......... ....... . . . ......... . . . . . . . . . ... . . ......... ......... ...... ............... ......... .............................. ..................... . . ......... . . . . . . . . . ......... . . . . . . . . . . ......... ............. . ......... . . . . . . . . . . . . . . . . . . . . . . . ......... ......... ...... ......... ......... ...................... . ...................... ......... ......................... ......... ...................... ......... ..................... . . . . . ......... . . . . . . . . . . . . . . . .......................... ......... .........y . . . . . . . . . . . . . ..t.......... .... x .... B Die Ebene ist dabei die , ‚ auf der x und y liegen ‘ Sprechweise auch : die von x und y aufgespannte Ebene B Alle Punkte der Ebene sind Linearkombinationen von x und y 1.5 QM1_16 345 Längen von Vektoren ♦ → k xk : Länge des Vektors x ( Norm ) Offenbar gilt : k axk = |a| k xk Vektoren und Koordinatensysteme ♣ Gegeben : zwei l.u. Vektoren x und y Betrachte die von x und y aufgespannte Ebene → Die Vektoren etablieren hier ein Koordinatensystem : .............. ........ ...... . ...... ...... . . . . . ...... ...... ...... ...... ...... . . . ...... . . . ...... . ...... ...... ........... ...... ...... ....... ...... ...... ...... ...... . . . . . . ... .......... ...... ...... ........... ...... ........... ...... ...... ...... ..... ...... ...... . . . . . .... ...... ...... ...... ........... ...... ...... ...... ...... ........... ...... ....... ...... . . . . ... ...... .......... ...... ....... ........... ...... ...... ...... ...... ...... ...... ........... ...... . ..... ....... ...... ...... .......... ...... ...... ...... ...... ...... ...... ............ .. ... .......... ....... ........... ...... ...... ...... ...... . . . . . ...... ... ...... ........... ........ . . . . ...... .......... .... . . . . ...... . .... . ...... . . . . ... ...... ...... ...... ... ...... .......... ........... ....... ....... .......... . . ...... ...... .... . . . . . ...... .... . . . . ...... . .. ...... ...... ...... ........... ...... ........... .... ...... . . . . . ...... .... . . . . ...... . . ..... ...... ...... ...... . . ........... . . . ...... ....... ...... ........... . . . . . . . . ...... .... . . . ...... . . .... ...... ...... ...... ...... ...... ...... . . ...... . . . ... ...... . ...... ........ ............. y 1 .. ....... . . . . . . ...... y . . . . . .t.......... ...... ...... x ...... ...... 1 x − Ursprung im Nullpunkt − Einheiten an den Vektorspitzen Name für das Koordinatensystem : x - y -System Bennenung der Koordinaten : x , y 1.5 QM1_16 346 Linearkombinationen und Koordinatensysteme → ? Gegeben nun : Linearkombination u der l.u. Vektoren x , y Beispiel : u = 1.5 x + 2 y .............. ........ ...... . ...... . . . . . . ...... ...... ...... ...... ...... . . . . . . ...... ...... ...... ...... ...... ........... ...... .. ...... ......... ...... ...... ........... . . . . ...... . ...... ... ...... ...... ......... ...... ...... ....... ........... ...... ...... ........... ...... ...... ...... ...... ...... . . ...... . . . ...... ... ...... . . . . . . . . . .. . ...... .... . . . ...... ........... . ...... . ...... ... . ...... . ...... . . . . ...... ..... ...... ...... . . . . . ...... . ...... ... . . ....... ...... . . . . ...... .... ........ . . . . . . . . . . . ...... ... .... . ............... . . ...... . ...... . .... . ...... ............... . . . . . ............ ...... ......... . . . . . ....... . . ... .... . . . . . . . . . . . . . . . . . . . ... ........ .... ...... ...... ...... ...... ...... ...... ...... ...... ........... ...... ........... ...... . . . . . . . . . . . . .. ...... ....... .......... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... . ...... ............ . . . . . . . . . . .. ...... ...... ...... .......... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... . . . . . . . . . . . . . . . ...... ....... ......... ...... ....... ...... ........... ...... ...... ...... ...... ...... ...... ...... ...... ...... ...... ............ . . . . . .... ........ ...... ............ ...... .......... ... ...... ...... ...... ...... ...... . . . . . ...... .... . . . . . ... ... ...... .. ....... .......... ...... ........... ...... ...... . . . . . . . . ...... .... . . . ...... . . . ...... ...... ...... ...... . . . . . ...... .... . . ...... . . . ........ ...... ................ y 1 y ............ u . . . ................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..... ................................. ..t..................................... ...... ...... x ...... . ...... 1 x Offenbar liegen aufeinander : − verschobene Vektoren zur Herstellung von u aus x , y − Hilfslinien zum Ablesen der Koordinaten von u − → ( gemeint ist vereinbarungsgemäß die Vektorspitze ) Daher stimmen überein : − Koeffizienten der Linearkombination − Koordinaten im x - y -System 1.5 QM1_16 347 Ermittlung von Koeffizienten einer Linearkombination Gegeben ( graphisch ) : Linearkombination u von x , y − Ferner : Maßstab ? Koeffizienten der Linearkombination ? ............... ......... ...... ...... . . . . . . ...... ...... ...... ...... ...... . . . . . ...... ...... ..... ...... ...... ........... ...... .... ...... ........ ...... ...... .... . . ..... . . . . ... ...... .......... ... ...... ...... ........... ... ...... ........... ...... ...... . ... ...... ....... . . ...... . ... . . .... . . . . . ... . . . . . . . .... . ... ...... .......... . . . . ...... .. ...... ... ...... ........... ...... ... . . . . ...... . . . ... ....... .... . . . . . ... ... ... ........ . . . . . . . . . . . . ... ...... .. .... . . . ...... ...... . . ... . ... ...... . . . . . . . ........... ...... ... . . . . . . .. .... ............ . . . . . . . . . . . . ...... ... ... ...... ...... ... ...... ...... ...... ............ ... ........... ... . . . . . . . . . ....... ........... ... ...... ...... ... ...... ...... ... ...... ...... ... ...... ........... . . . . . . . . . ...... .......... ...... ... ...... ...... ... ...... ...... ... ...... ...... ... ...... ...... . . . . . . . . . . . . . ...... ...... . ......... .. ... ....... .......... ...... ... ...... ...... ...... ... ...... ...... ...... ..... ...... . . . . . ... ....... ...... ........... ..... ........... ...... ...... ...... ...... ...... ...... . . . . . ... .... . . . . ...... . .......... ...... ........... ...... ........... ...... ...... ...... . . ...... .... . . . ...... . . . ...... ...... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... ...... ...... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... . .. .. .. .. .. .. .. .. .. .. .. .... . . ...... . . . . . . . . . . . . . . ... ... ... ... ... ... ......... .... . . . . . . .............. y 1 y............ u . . . ....................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .... .............................. ..t...................................... ...... ...... x ...... . ..... 1 x 0 → 1 5 Lösung : Ablesen der Koordinaten ! Wie Koordinaten ( x , y ) ablesen ohne ‚ Ticks ‘ ? ? Ermitteln in absoluten Einheiten B ( → ax , a y ) Ggf. Vorzeichen beachten ! Wegen ax = x k xk , ay = y k yk : → ? 1.5 Koordinaten : x = ax / k xk , y = ay / k yk Hier : ax = 3 , k xk = 2 , ay = 5 , k yk = 2.5 QM1_16 348 → Vektorrepräsentation ♣ Gegeben sind endlich viele Variablen X1 , . . . , Xk • Es ist möglich , die Variablen durch Vektoren x1 , . . . , xk so zu repräsentieren , dass k xi k = SXi für alle i cos (∠ ( xi , xj )) = rXi , Xj für alle i , j Vektornamen : Variablennamen fett und klein ( X ↔ x ) Sind diese Bedingungen erfüllt , so sprechen wir von einer ( Vektor- ) Repräsentation ( der Variablen X1 , . . . , Xk durch die Vektoren x1 , . . . , xk ) B Zweite Bedingung aufgelöst : ∠ ( xi , xj ) = arccos ( rXi , Xj ) ? − Beispiel : Gegeben sind X , Y mit SX = 4 , SY = 2 , rX , Y = .5 arccos ( .5 ) = 60◦ → Mögliche Repräsentation .... y..... ◦ .. .. . 60 .t......................................................................... x ...... ..... .... ... ... ... ... ... 1.5 ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. .. .. .. .. .. .. ... ... ... ... ... ... ... . . . . . 0 1 5 QM1_16 349 ? ( Bekanntes ) Beispiel mit drei Variablen ? Kovarianzmatrix von X1 , X2 , Y 4 −2 −2 9 6 5 − : 6 5 25 Mittelwerte : MX1 = 4 , MX2 = 1 , MY = 3 − ( hier uninteressant ) Korrelationsmatrix von X1 , X2 , Y : 1 −1/3 3/5 1 1/3 −1/3 3/5 1/3 1 Winkel ( gerundet ) für die Repräsentation : − arccos ( −.333 ) = 109◦ − arccos ( .6 ) = 53◦ − arccos ( .333 ) = 71◦ → Repräsentation durch x1 , x2 , y − Längen : − Winkel : k x1 k = 2 , − ∠ ( x1 , x2 ) = 109◦ − ∠ ( x1 , y ) = 53◦ − ∠ ( x2 , y ) = 71◦ 1.5 k x2 k = 3 , k yk = 5 QM1_16 350 Vektorrepräsentation – Anmerkungen Repräsentation kurz : Variablen Streuungen Korrelationen 4 ? • o n 4 Vektoren Längen Winkel ( via cos ) Je mehr Variablen , um so mehr ‚ Dimensionen ‘ sind nötig Eindeutigkeit ? − → ↔ ↔ ↔ Verschiedene Variablen ↔ verschiedene Vektoren ? Nein ! x = y genau dann wenn X = Y + c ( c : Konstante ) X = Y +c ⇔ rX,Y = 1 , ⇔ ∠ ( x , y ) = 0◦ , ⇔ x = y SX = SY k xk = k yk ( Stimmt analog auch falls Streuungen 0 sind ) → Eindeutigkeit der Repräsentanten : bis auf additive Konstanten B 1.5 Additive Konstanten ‚ gehen verloren ‘ QM1_16 351 → Anwendung : Abschätzung von Korrelationen ♣ Gegeben : Variablen X , Y , Z − ? − → rX, Y = .5 , rY, Z = .8 rX, Z = ? Kann man Grenzen angeben ? Betrachte Vektorrepräsentation durch x , y , z ! arccos ( .5 ) = 60◦ , ∠ ( x , y ) = 60◦ , ? → − → arccos ( .8 ) = 37◦ ( etwa ) ∠ ( y , z ) = 37◦ Was kann man über ∠ ( x , z ) sagen ? Geometrische Einsicht : ∠ ( x , z ) wird minimal / maximal , falls x , y , z in einer Ebene liegen Richtungen von x , y und ‚ Extremrichtungen ‘ für z . ...... ... ......... ........ ........ . . . ... ... ... ... ... ... ... ... .. . ... ... ... .. ... ... ................ ... ... ..... . .... ... ..... . . ... . . ... .... ... .. ..... ... ..... ... ... ........ ..... ... .. ................... ..... . . . . . . . ....... ... ..... ...... ... ... ..... ...... ... ... ..... ......... ... ........ ... ...... . ... .. . . . . .. .. ................................. ..... ..... ......... ... ... ..... ....... ... ... ... ...... ......... ... ... .......... ... . ... ... .... . ... . . ... ... . ... . ... . ... ... .. . . . ... ... ... ... . ......... . . . ... ... ... ... . .......................... . . . .. ........................................... ... .. ...... . . ... .. ..... ....................... . . . . . . . . . . . . . . . . . . . . . ..... ...... . ........ ............................................... x z1 37◦ y ◦ 60 37◦ z2 t Maximaler / minimaler ∠ ( x , z ) : 97◦ / 23◦ → 1.5 Minimales / maximales rX, Z : −.12 / .92 ( etwa ) QM1_16 352 Vektorrepräsentation – Erweiterung ♣ Gegeben : Repräsentation von X1 , . . . , Xk durch x1 , . . . , xk → Ziel : Erweiterung auf Linearkombinationen Repräsentiere Linearkombination der Variablen − ♦ − 4 durch ‚ entsprechende ‘ Linearkombination der Vektoren Genauer : Repräsentiere U = P ai X i + b durch u = P ai x i Additive Konstante b bleibt unberücksichtigt Nun sind auch alle Linearkombinationen der Xi ‚ repräsentiert ‘ Ergebnis : Erweiterte Repräsentation ? Bleiben Eigenschaften erhalten ? → 1.5 Ja ! Zusätzlich werden Linearkombinationen respektiert QM1_16 353 Vektorrepräsentation – Erweiterung • Für die erweiterte Repräsentationen der Linearkombinationen U der Variablen Xi durch Vektoren u gilt k uk = SU für alle U cos (∠ ( u1 , u2 )) = rU1 , U2 für alle U1 , U2 P Ist ferner V = ai Ui + b eine Linearkombination der U , so wird V repräsentiert durch X ai u i 4 V ist hier auch Linearkombination der Xi also ‚ ein U ‘ Erweiterte Repräsentation der Linearkombinationen kurz : Variablen Streuungen Korrelationen Linearkombinationen B ↔ ↔ ↔ ↔ Vektoren Längen Winkel ( via cos ) entsprechende Linearkombinationen Bei Linearkombinationen : − Links : Linearkombinationen von Variablen − Rechts : Linearkombinationen von Vektoren − Koeffizienten bleiben gleich − Additive Konstante bleibt rechts unberücksichtigt 4 − 1.5 Wegen cos ( 90◦ ) = 0 : unkorreliert ↔ orthogonal QM1_16 354 ? Ein Beispiel ♣ Gegeben sind Variablen X , Y mit − → SX = 4 , SY = 3 , rXY = −.75 Interessant seien nun Linearkombinationen : − ? U = 2X + Y + 3 , Streuungen und Korrelation von U , V ? Rechnung : → → V = X −Y −7 Kovarianzmatrix von U , V : ! 37 32 32 43 SU = 6.08 , SV = 6.56 , Graphische Lösung : rU V = .80 ( arccos ( −.75 ) = 139◦ ) ........ u .................. ...... ... . ............. . . . . . . . . . y .......... . . . ... ...... ............. . . . . . . . . ...... . . . . ...... ...................... ...t.............................................................................. ............... x ............... ............... ............... ............... v ............... ................ −y 5 .. ................................................................................................................... .. ..... .. .. .. .. .. .. .. .. .. .. .. .. .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. .. .. ... ... .. ... .. ... .. ... .. ... .. .. ... .. ... ... ... ... ... .. . . ........ 0 → 1.5 1 ∠ ( u , v ) = 37◦ , 2x cos ( 37◦ ) = .80 – klappt ! QM1_16 355 → Graphische Ermittlung der Korrelation ♣ Situation : u und v repräsentieren Variable U , V ..t................. .... ................. .... α ................. v ................. .... . .... .... .... .... .... .... .... ... u ......... . ... ... ... ... . . . . ..... ..... rU V = ? ? → ? → Winkel α messen , rU V = cos ( α ) Hier : α = 37◦ , cos ( 37◦ ) = .8 ( etwa ) Alternative : Lot fällen ..t................. .... ................. .... α ................. v ................. .... . .... .... .... .... .... .... .... ... u ......... 5 ... ... .. ... . . .... ..... ..... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. .. .. .. .. .. .. ... ... ... ... ... ... ... . . . . . 0 1 .... ...... ...... ..... . . . . . ..... ..... ...... ...... ..... . . . . . .. ...... ...... ..... Lotfußpunkt in absoluten Koordinaten ( auf u - Achse ) : l l = k vk cos ( α ) → rU V = cos ( α ) = l / k vk ? Hier : rU V = 3 / 3.75 = .8 – B Bei α > 90◦ sind cos ( α ) und l negativ 1.5 passt ! QM1_16 356 → Einfache lineare Regression in Vektorrepräsentation ♣ Gegeben X , Y mit SX = 4 , SY = 2 , rXY = .5 → Ziel : Regression von Y auf X − Interessant sei nur das Gewicht b → Rechnung : b = r SY / SX = .5 · 2 / 4 = .25 → Ziel nun : Graphische Lösung − ohne bisheriges Wissen zur rechnerischen Lösung ( arccos ( .5 ) = 60◦ ) Graphische Darstellung ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. .. .. .. .. .. .. ... ... ... ... ... ... ... . . . . . 0 1 5 ..... . . y.. .. .. . .t......................................................................... x Mögliche Vorhersagen : − Lineare Transformationen Ŷ = b X + a von X Gesucht : b der optimalen Vorhersage ( a hier irrelevant ) Vorhersage ist optimal , wenn SE minimal ist − 1.5 ( E = Y − Ŷ ) QM1_16 357 Optimale Vorhersage graphisch → Gesucht : Vorhersage Ŷ mit kleinstem SE Mögliche Vorhersagen graphisch : Vielfache von x − Also : die durch x aufgespannte Gerade : g 4 Genauer : Die Vektorspitzen der möglichen Vorhersagen bilden die durch x aufgespannte Gerade Wir benutzen weiter die griffigere Sprechweise ? Eine mögliche Vorhersage : Ŷ = .5 X + a Graphisch samt zugehörigem Fehler : ..... ...... ... . y . e .... . ... .... ... .. ....t....................................................................... . . x ŷ ....... ........... . .... ... ... ... ... ... ... ... ... ... ... ... .. ....................................................................................................................................................................................................................................................................................................................................................................... g Diese Vorhersage ist sicher nicht optimal Bei der optimalen Vorhersage muss e ⊥ g gelten → Optimale Vorhersage also durch Lotfällen ..... ...... e ... y... .. .. .. .. .... ... ..t............. ........................................................ x ŷ . ...... ......... .. ... ... ... ... ... ... ... ... .. ...................................................................................................................................................................................................................................................................................................................................................................... 1.5 g QM1_16 358 Optimale Vorhersage graphisch Optimale Vorhersage durch Lotfällen ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. .. .. .. .. .. .. ... ... ... ... ... ... ... . . . . . 0 1 5 ..... ...... e .... y.... .. .. .. .. ...t.......................................................................... x ŷ . ....... ......... .... ... ... ... ... ... ... ... ... ........................................................................................................................................................................................................................................................... g Kontrolle : − k ŷk = 1 , k xk = 4 → Achsenkoordinate b von ŷ : 1 / 4 = .25 – B Achsenkoordinate : Bzgl. x-Koordinatensystem auf g stimmt ! 4 ( Eigentlich : Koordinate der Spitze von ŷ . . . ) → − Konstruktion von e : Offenbar Lotfällen von y auf Gerade h ⊥ g durch Nullpunkt .. ... .. ... ... ...................................... ... ... ... ... ... ... ... ... ... ... ... . ............................................................................................................................................................................................................................................................ .... .. .... ... ... .... h ...... ....... e ... ... y .. .. .. .. ...t.................................................................... .. .. x ŷ 4 1.5 g Ganz genau : h ist ⊥ g in der x - y - Ebene QM1_16 359 → Kontrolle ( theoretisch ) ♣ Allgemeine Situation ..... .... .. y .... . e .... .. . .. .. .. .. .. .. .. .. α ...t................................................................................... x ŷ ... ...... ......... .... ... ... ... ... ... .... .. ... ... ...... ... ..... ... ... ... ... ... ... ... ... ... ................................................................................................................................................................................................................................................................................................................................... g cos ( α ) = rXY Lotfußpunkt ( absolute Koordinaten ) : k yk cos ( α ) Lotfußpunkt in x - Koordinaten : k yk cos ( α ) / k xk Wegen Repräsentationseigenschaften : k yk cos ( α ) / k xk = SY rXY / SX = rXY (SY /SX ) = b → ? Kommt hin ! Alles in Ordnung auch bei negativem rXY ? ....... .... ... y .. ... .. e ... .. ... ... ........................t........................................................................ x ŷ . ...... ......... .. ... ... ... ... ... ... ... ... .. ................................................................................................................................................................................................................................................................................................................................... → 1.5 g Ja ; cos , Koordinaten und Regressionsgewicht jetzt negativ QM1_16 360 Anmerkungen zur linearen Regression Fehlerstreuung im Beispiel ? ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. .. .. .. .. .. .. ... ... ... ... ... ... ... . . . . . 0 1 5 ..... ...... e .... y.... .. .. .. .. ...t.......................................................................... x ŷ .. ...... ......... .... ... ... ... ... ... ... ... ... .......................................................................................................................................................................................................................................................... g Ausmessen liefert : k ek = 1.7 ( etwa ) √ √ Rechnung : SE = SY 1 − r2 = 2 1 − .25 = 1.73 → Stimmt ! 4 Analog : SŶ ( Messen und Rechnen ergeben beide 1 ) Betrachte rechtwinkliges Dreieck ( mit Seitenlängen ) : ...... ..... .. y ... e ... ... .. .. .. .. .. .. .. .. ..t.. ................................................................................... x ŷ ....... .......... ... .... .. ... ... ... ... ... ... ... ... ... ... ... ... .... . Pythagoras : ... .. . .... .. .. k yk ... ..... k ek .. ... ... .. . . .. . ............................. k ŷk k yk2 = k ŷk2 + k ek2 Übersetzt ( Eigenschaften der Repräsentation ) : SY2 = SŶ2 + SE2 → 1.5 Also : – Varianzzerlegung ! Varianzzerlegung ↔ Pythagoras QM1_16 361 → Multiple lineare Regression in Vektorrepräsentation ♣ Gegeben : Prädiktoren X1 , X2 , Kriterium Y − → − → − Bekannt : Kovarianzmatrix von X1 , X2 , Y Ziel : Regression von Y auf X1 , X2 Wieder sind nur die Gewichte interessant Problem soll mit Repräsentation erneut gelöst werden Also : Fehlerstreuung soll minimiert werden Vektorrepräsentation einer solchen Situation : ........ . . . . . y. ...... . . . . . . ...... . . . . . . ....................... . . . . . .. ........................... x2 .. x1...... ... ..................... ................ ......... ...... . ...................... ........... ................ ...................... ......... ........... ...................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ......... ...... ............. . . . . . . . . . . . . . . . ......... . . . . . . . . . . . . . . . . . . . . ......... ...... ............. ......... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ......... ......... ...... ............. . . . . . . . . . . . . . . . . . . . ......... . . . . . . . . . . . . . . . . . ......... .................. ...... . ......... . . . . . . . . . . . . . . ......... ......... . ......... ........................... ......... ......... ......... .. ......... ......... . . . . . . . . . . ......... ......... ......... ....... . . . . . . . ......... . . ......... . . . . . ......... ....... . ......... . ....... . . . . . . . . . . . . ......... ......... ... .................... ......... .............................. ...................... . ......... . . . . ......... . . . . . . . . . . . . . . . ......... ......... ............ . . . . . . . . . . . . . . . ......... . . . . . ......... . ...... ......... ......... ...................... .... ......... ...................... ......... ....................... ......... ...................... ...................... ......... . . . . . . . . . . . . . . . . . . . . ..................... U Mit eingezeichnet : U : von x1 , x2 aufgespannte Ebene Die Punkte von U sind die Linearkombinationen von x1 , x2 Sie repräsentieren also die möglichen Vorhersagen Abstand eines Punktes aus U zu y − ist Fehlerstreuung der zugehörigen Vorhersage → Minimale Fehlerstreuung bei minimalem Abstand → Lösung wieder durch Lotfällen 1.5 QM1_16 362 → Lösung des Regressionsproblems durch Lotfällen ............. . . . . . . y..... .. . . .. e . .. . . . . . . . . .. ...... . . . . . . . .. ............................. . . . . . . . . . . x . . ......................................2.................................. .... .... ..... . x1...... ŷ ... ..................... ................ . ........ ...................... ...................... .......... ................. . . . . . . . . . . . . . . . . . . . . . ........... ... .. ........... ...................... ......... ........... ........................... . . . . . . ......... . . . . . . . . . . . . . . . . . . . . . . . . . . . ......... . .... ......... ......... ........... ...... ...................... ......... .... ........... ......... ...................... . . . . . . ......... . . . . . . . . . . . . . . . . . . . . . . . . . ......... .... .......... ......... ....... . . . . . . ......... . ......... . . ......... . . .... ........................ ......... ......... . .... ......... ......... ...... ............. . . . . . . . . . ......... . ......... . . ......... .... ....... . . ......... . ......... . . . . . . . . . . . ......... ......... ........ ... ....... . . . . . . . . . . . . . . . . . ......... . . ......... ... . .............................. . ...................... ......... . . . . . . . . . . . . . ... ......... ............ ......... . . . . . . . . . . . . . . . . . . . . . . . . . ......... ......... ..... .............. . . . . . . . . . . . ......... . .......... . . . . . . . . ......... ......... ................. ......... ... ........................... ......... ...................... ......... ..................... ......... ...................... ....................................... U 4 ( e ist hier passend zur Addition Y = Ŷ + E dargestellt ) Koordinaten von ŷ im x1 - x2 -System − sind Gewichte der optimalen Vorhersage → Damit sind die gesuchten Gewichte gefunden 4 Lösung also durch Lotfällen − 4 ‚ normal ‘ bedeutet manchmal ‚ senkrecht ‘ Daher der Name ‚ Normalengleichungen ‘ Das Dreieck aus y , ŷ , e ist rechtwinklig Wieder : Pythagoras : k yk2 = k ŷk2 + k ek2 Übersetzt mit Eigenschaften der Repräsentation : SY2 = SŶ2 + SE2 → 1.5 Also wieder : Varianzzerlegung ↔ Pythagoras QM1_16 363 ? Schon verwendetes Beispiel ? Kovarianzmatrix von X1 , X2 , Y 4 −2 −2 9 6 5 → : 6 5 25 Rechnung lieferte : b1 = 2 , b2 = 1 , β1 = .8 , β2 = .6 − Determinationskoeffizient : R2 = .68 − Korrelationen waren : rX1 X2 = −.33 , rX1 Y = .6 , rX2 Y = .33 → − − Vektorrepräsentation durch x1 , x2 , y mit k x1 k = 2 , k x2 k = 3 , k yk = 5 ∠ ( x1 , x2 ) = 109◦ , ∠ ( x1 , y ) = 53◦ , ∠ ( x2 , y ) = 71◦ Perspektivische Darstellung : ............. . . . . . y . .. ...... . . . . .. e . . . . . . . . . . .. ........ . . . . . . . . .................2.... .. . .............................................x .......... .................................................. x1 ŷ ... ..................... ................ ..... ......... ...................... .. ...................... ........... ................ ...................... . . ........... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ......... ...... ............. . . . . . . . . . . . . . . . . . ......... . . . . . . . . . . . . . . . . . . ......... ...... ... ............. ......... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .... ......... ......... ...... . .............. . . . . . . . . . . . . . . . . . . . . ......... . . . . . . . . . . . . . . . . ......... .... .................. ....... ......... . . . . . . . . . . . . . . . . ......... ......... .... .. ......... ......... ........................... ......... . .... . ......... ......... . ......... . . . . . . . . . . . ......... ......... ......... .... ....... . . . . . . . ......... . . ......... . . . . . ......... .. ....... . . ......... . ....... . . . . . . . . . . . . . . . ......... ......... .... ... . . ......... . ................... .............................. . ... ..................... ......... . . . . . . . . . ......... . . . . . . . . . . . . . . . . . ......... ......... .............. . . . . . . . . . . . . ................ . . . . . . . ......... . ..... ......... ......... ...................... ..... ......... ..................... ......... ....................... ......... ...................... ...................... . ......... . . . . . . . . . . . . . . . . . . . ...................... U → 1.5 Passt ! QM1_16 364 Beispiel , Fortsetzung Die x1 - x2 - Ebene ... ... ... ... ... ... ... ... ... ... .................................................................................................................................................... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .................................................................................................................................................................................................................................................................................................. ... ... ... ... ... ... ... ... ... . ...... ...... . . . . . ŷ.. x2 .... ..... . ... . . . ... ..... . . . . ... . . ... ..... . . . . . ... ..... ... ..... ...................................... x1 4 ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... . .. . .. .. . .. . .. . ..... .... .... .... .... .... . . . . . . 0 1 5 y befindet sich senkrecht über ŷ − senkrecht : Zur Zeichenoberfläche Koordinatenablesen an Endpunkten der Achsenabschnitte : − absolut : 4 ( x1 ) , 3 ( x2 ) Wegen k x1 k = 2 , k x2 k = 3 : − → Achsenkoordinaten : 4 / 2 = 2 ( x1 ) , 3 / 3 = 1 ( x2 ) In der Tat : die Gewichte b1 , b2 Die absoluten Koordinaten ( ai ) sind ai = bi k xi k = bi SXi = ( bi SXi /SY ) SY = βi SY = βi k yk → B − ? 1.5 βi = ai / SY = ai / k yk β-Gewichte sind also absolute Koordinaten bis auf Faktor SY = k yk Hier ( SY = 5 ) : β1 = 4/5 = .8 , β2 = 3/5 = .6 – stimmt ! QM1_16 365 Beispiel , Fortsetzung Jetzt Lote von ŷ auf die Achsen fällen : .. .. .. .. .. .. .. .. ........................................................... .. .......... .......... ..... .. . .......... .. .......... ..... .. .. .......... . . . . . . . . .... ... . . .. .......... .. .. .. .......... . . . . . . . . . . . .. .. ... ... .......... .. .. ......... ..... .. .................. .. ... ........ .. ... .. .. ... .. .. .. .. .... .. .. .. .. .. .... .. .. ... .. .. ... .. .. . . ... .. .. .. .. .... .. ... .. .................................................................................................................. .. .. .. .. .. .. .. .. .. . ..... . ....... ... . . . . . x2 .. ..... ... . . . . . . ... ..... ŷ . ... . . . ... .... ... .......... ... ..... ...................................... x1 ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. ... .. ... .. ... .. ... .. ... ... ... ... ... ... ... ... 0 1 5 Erinnerung : Lotfällen von y auf eine Achse − Zwei Möglichkeiten : − Lot auf U ( → ŷ ) dann Lot von ŷ auf Achse Direkt oder Die Lotfußpunkte in der Zeichnung hätte man auch erhalten , − wenn man direkt von y Lote auf die Achsen gefällt hätte → Die Lotfußpunkte liefern die Vorhersagen mit jeweils einem xi − also die von einfachen linearen Regressionen mit einem Prädiktor → Möglicher Vergleich einfacher und multipler Regressionen 1.5 QM1_16 366 Multiple und einfache Regressionen Multiple und einfache Regressionen im Bild : .. .. .. .. .. .. .. .. ........................................................... ..... .... ..... ...... .. . .... ........ .... . ... .... ... .. ... .... . . .. .. . ... ... . . .. .. . ... ... . . . ... . . .. .. ... ... .... .. .. ... .... .......... .. . . ... .. .. ... .. ... ... .. ... .. .. ... . .. .. ... .. ... . . .. ... .. .. ... ... .. ... ... .. . . ... .. . ... . .. .................................................................................................................. ................................................................................... ...... . . . . x2 ...... . . . . . . ...... ..... ŷ . . . . .. .... ŷ2 ..... ......... ... ...... ........................................................... x1 ŷ1 ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. . .. . .. . . .. . .. .... ..... .... .... .... .... . . . . . . 0 1 5 Ŷ1 , Ŷ2 : Vorhersagen von Y durch X1 , X2 − ŷ1 , ŷ2 : Repräsentierende Vektoren Bei einfachen linearen Regressionen liefern Lotfußpunkte − in Achsenkoordinaten : Regressionsgewichte − in absoluten Koordinaten : r SY = β SY − ? bis auf Faktor SY = k yk also r = β Im Beispiel sind die Lotfußpunkte − in absoluten Koordinaten : 3 ( x1 ) , − in Achsenkoordinaten : 3/2 = 1.5 ( x1 ) , 1.66/3 = .55 ( x2 ) − 1.66 ( x2 ) Das waren in der Tat die Regressionsgewichte Absolute Koordinaten durch SY = k yk = 5 : − 3/5 = .6 ( x1 ) , − 1.5 1.66/5 = .33 ( x2 ) Das waren in der Tat die Korrelationen QM1_16 367 → Vergleich einfache – multiple Regression .. .. .. .. .. .. .. .. ................................................................................................................................................ .. . .. .......... ........ .. .......... ... .. .. .......... . ......... . . . . .. .... ..... . . . . . . .. .......... ... .... .......... . . .. . . . . . . . . . .. ...... .. ... ..... .......... .. ... ... .......... .. ................... ... ... ....... ... ... ... .. . . ... ... .. ... .. .. . ... . .. .. ... . .. ... .... .. ... .... .. ... ... .. ... ... .. ... ... ... .. ... .. ..... . .................................................................................................................. .. .. .. .. .. .. .. .. .. . .... ....... ... . . . . .. x2 ... ..... . ... . . . ... ...... ŷ . . ... . . ... ...... . . . . . ... .... ......... ..................................... x1 → ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. .. .. .. .. .. .. ... ... ... ... ... ... ... . . . . . 0 1 5 ‚ Optische ‘ Vergleiche sind möglich − hinsichtlich einfacher Regressionen und multipler Regression − über Koordinatenlinien und Lote Achsenkoordinaten liefern − über Koordinatenlinien Gewichte der multiplen Regression − über Lote Gewichte bei einfachen Regressionen Absolute Koordinaten liefern B bis auf gemeinsamen ( ! ) Faktor SY = k yk − über Koordinatenlinien β-Gewichte der multiplen Regression − über Lote Korrelationen mit den Prädiktoren → Möglicher ‚ optischer ‘ Vergleich β-Gewichte ↔ Korrelationen − was Größenverhältnisse angeht − Faktor SY = k yk ist ja überall gleich 1.5 QM1_16 368 → Varianzaufklärung → Vergleich Varianzaufklärung einfache – multiple Regressionen − Änderung der Varianzaufklärung − bei Hinzufügen oder Wegnehmen von Prädiktoren .. .. .. .. .. .. .. .. .. . ..... ..... ..... .... .. ......... .. .... ... .... .. ... .... . . . .. . ... .... .. ... .... . . . ... .. ... . . ... . .. ... . ... . . .. ......... .. ... .. ... ... .. ... .. ... .. ... .. ... .. ... .. ... ... .. ... .. ... .. ... . . . . . . . . . .................................................................................................................. ............................................................................ .. ....... . . . . x2 .. ..... . . . . ...... ...... ŷ . . ... . . .. ŷ2 .... ......... ... ..... .......................................................... .. x1 ŷ1 ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... . .. . .. .. . .. . .. . ..... .... .... .... .... .... . . . . . . 0 1 5 Determinationskoeffizient ist jeweils SŶ2 / SY2 Determinationskoeffizienten einfache Regressionen : − SŶ2 / SY2 = k ŷ1 k2 /k yk2 = 32 /52 = .36 1 − SŶ2 / SY2 = k ŷ2 k2 /k yk2 = 1.662 /52 = .11 2 Determinationskoeffizient multiple Regression : − SŶ2 / SY2 = k ŷk2 /k yk2 = 4.12 /52 = .67 4 ( Hinreichende ) Übereinstimmung mit früheren Rechnungen B Gemeinsamer Nenner SY2 = k yk2 → Varianzaufklärungen verhalten sich wie k ŷ1 k2 : k ŷ2 k2 : k ŷk2 1.5 QM1_16 369 → Partialkorrelation Gegeben nun Variable X , Y , Z → Z soll auspartialisiert werden → Verfahren : Korrelation der Residuen → Ziel : Veranschaulichung durch Vektorrepräsentation Erinnerung an Konstruktion des Residuums in Repräsentation : − Hier wird X durch Z vorhergesagt ( Residuum : X̃ ) ... ... .. ... ... ...................................... .. .. ... ... ... ... ... ... ... ... ... ............................................................................................................................................................................................................................................................ .. ... ... ... ... ... ... ..... ...... . . x̃ .... .... x .. .. .... . ..t........................................................................ z x̂ → Senkrechte Projektion von x auf Gerade ⊥ z Analog für Y ↔ y Zusammen : − x und y werden senkrecht projiziert − Auf die Ebene ⊥ z → Partialkorrelation über Winkel zwischen projizierten Vektoren 4 Projektion auf Ebene , da Situation jetzt dreidimensional 1.5 QM1_16 370 Partialkorrelation ? Beispiel : Kovarianzmatrix von X , Y , Z : 4 −2 6 −2 9 5 6 5 25 Bekanntes Beispiel , nur Variablen umbenannt − → − X1 → X , X2 → Y , Y → Z Vektorrepräsentation durch x , y , z mit ∠ ( x , y ) = 109◦ , ∠ ( x , z ) = 53◦ , ∠ ( y , z ) = 71◦ ....... .. .. . z .... .. .. .. .. .. .. . .........x .... y..... ....... .. ....... .. ................................ . . ... ...............................................................ỹ.......... ........x̃ ... ... ........................... . ... ............................. ........ ... ... ........... ....................... . . . . . . . . . . . ... . . . ........ . . . . .. . . .......................... .................. . . . . . . . ........ ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... .. .. .. ............................ . ....... . . . .. ........ ... ........ ... ............... ... ........ ........ ... ............................................... ... ........ ........ .. ........ ........ . ........ ...... ........ ............................. . . . . . . . . . . . . . ........ . . . . . . . . . . . . . . . ........ .................. . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . .................. . . . . . . . . . . ........ . . . . . . . . . . . . . . . . . . ............................................. x und y werden senkrecht auf Ebene ⊥ z projiziert − → ? → 1.5 Ergebnis : x̃ , ỹ Winkel zwischen x̃ , ỹ liefert Partialkorrelation Im Beispiel sollte ∠ ( x̃ , ỹ ) etwa 134◦ sein Kosinus davon : etwa −.7 – passt ! QM1_16 371