Folien zur Veranstaltung QM I

Werbung
Kombinatorik.
? Beispiel : Multiple-Choice-Klausur
− 16 Fragen
− Je 4 Antwortalternativen ( eine ist richtig )
− Zufälliges Ankreuzen
? Wahrscheinlichkeit für mindestens 8 Treffer ?
→ Mögliche Lösungsstrategie :
Wie viele Ankreuzmöglichkeiten gibt es insgesamt?
Bei wie vielen dieser Möglichkeiten gibt es ≥ 8 Treffer ?
→ Quotienten bilden
→ „ Wie viele Möglichkeiten ? “ → Kombinatorik
1.1
QM1_16
1
? Beispiel : Aufteilen von Vpn auf Gruppen
− 20 Vpn
− Aufzuteilen in 2 Gruppen zu 10
− 10 Vpn haben kritisches, nicht sichtbares Merkmal A
? Wie wahrscheinlich sind ≥ 8 A-Vpn in Gruppe 1 ?
→ Mögliche Lösungsstrategie :
Wie viele Möglichkeiten der Verteilung gibt es ?
Bei wie vielen kommen ≥ 8 A-Vpn in Gruppe 1 ?
→ Quotienten bilden
→ „ Wie viele Möglichkeiten ? “ → Kombinatorik
? Beispiel : Lotto 6 aus 49
? Wie wahrscheinlich sind ≥ 5 Richtige ?
→ Vorgehen entsprechend
1.1
QM1_16
2
→ Notationen
♦
n ! := 1 · 2 · . . . · (n − 1) · n
für natürliches n
( ‚ n Fakultät ‘ )
− Dabei : 0 ! := 1
?
1! = 1
?
2! = 1 · 2 = 2
?
3! = 1 · 2 · 3 = 6
?
4 ! = 1 · 2 · 3 · 4 = 24
?
5 ! = 1 · 2 · 3 · 4 · 5 = 120
] : Anzahl
?
] Möglichkeiten : Anzahl der Möglichkeiten
♦ Ist G endliche Menge, so heißt die Anzahl der Elemente von G
auch die Mächtigkeit von G
Abkürzung : |G|
?
Ist A = {2, 3, 5} , so |A| = 3
1.1
QM1_16
3
→ Produktmengen.
♦ Sind A und B Mengen, so heißt
A × B := { (a, b) | a ∈ A , b ∈ B }
auch Cartesisches Produkt von A und B
Die Elemente (a, b) von A × B heißen Paare
? Gleichzeitiges Werfen eines Würfels und einer Münze
? Beschreibung der mögichen Ergebnisse ?
A = {1, 2, 3, 4, 5, 6} ( Würfelergebnisse )
B = {W, Z} ( Münzenergebnisse )
Ergebnisse des zusammengesetzten Versuchs :
→
A×B
mit
(a, b)
................
.........
.......
Würfel
?
( 2 , Z) : Würfel : 2
................
............
........
..
Münze
Münze : Z
? ] Ergebnisse der zusammengesetzten Versuchs ?
→ Äquivalent : | A × B | = ?
1.1
QM1_16
4
• Ist | A | = m und | B | = n , so
|A × B | = m · n
o
n Begründung am Beispiel Würfel und Münze :
A = {1, 2, 3, 4, 5, 6} ( Würfelergebnisse )
B = {W, Z} ( Münzenergebnisse )
Veranschaulichung des Cartesischen Produkts
B
Z
t
d
t
t
t
t
W
t
t
t
t
t
t
1
2
3
4
5
6
B
o entspricht ( 2 , Z )
→
Offenbar : | A × B | = 6 × 2 = 12
A
? Bekannt : Koordinatensystem als Veranschaulichung von R × R
y
........
.........
...
...
...
...
...
...........................................
..
...
...
...
..
...
..
...
..
...
..
...
..
...
..
...
..
...
..
...
..
...
..
...
.
...
...............................................................................................................................................................................................................................
......
q
1
1
1.1
(3, 2)
x
QM1_16
5
• Ist | A | = m und | B | = n , so
|A × B | = m · n
o
n Begründung am Beispiel Würfel und Münze :
A = {1, 2, 3, 4, 5, 6} ( Würfelergebnisse )
B = {W, Z} ( Münzenergebnisse )
Systematische Herstellung der Möglichkeiten
− durch sukzessives Auswahlverfahren
.....
.
.
.
.
.
.
......
.
.
.
.
.
.
...
1
2.......... 3
4
5
6
...
...
...
W Z W Z... W Z W Z W Z W Z
......................................................................................................................................................................................................................................................................................................................................
............. .. .................
.............. ... ... ...............
......... ..... .. .... ...........................
........ ............ ....
...... ..........
...
.
.
.
.
.
.
.
......
.
...
....... .........
...... .................
...
...
........
......
.........
..
......
.........
...
......
.........
..
......
........
.
.
.
.
.
.
.
.
.
......
.
.
.........
.
.
.
.
...
....
..
......
......
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
......
.........
.
....
......
.
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
......
...
.
....
......
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.........
...
.
....
......
.
.
.
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
...
......
.
....
......
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........................................................................................................................................................................................................................................................................................................................................................
.
.
.
.
.
.
... ...
.... .....
.... .....
.... ....
.... ....
.... ....
. ..
. ..
. ...
. ...
. ...
.
.
... ...
.
.
.
.. ..
.. ..
... ..
... ..
... ....
... .....
.. ....
.. .....
.. .....
...
.
.
..
.. .....
.
.
.
.
.
.
....
...
...
...
...
...
...
...
...
...
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
..
.
.
....
...
....
...
....
...
....
.
.
...
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
...
...
...
...
...
.
.
.
.
.
.
....
...
....
...
....
...
....
...
...
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.............................................................................................................................................................................................................................................................................................................................
(1)
(2)
(3)
(1) : Wahl des ersten Elements a von ( a , b ) ∈ A × B
− 6 Möglichkeiten
(2) : Wahl des zweiten Elements b von ( a , b ) ∈ A × B
− Jeweils 2 Möglichkeiten
(3) : Fertig
B
entspricht ( 2 , Z )
→ Offenbar : ] Wahlmöglichkeiten insgesamt : 6 · 2 = 12 B : Beachte : ‚ jeweils ‘ ↔ Multiplikation
1.1
QM1_16
6
• Ist | A | = m und | B | = n , so
|A × B | = m · n
o
n Kurz, allgemein :
Es gibt m Möglichkeiten für a
Für jede davon : n Möglichkeiten für b
→
Also : m · n Möglichkeiten für ( a , b )
→ Produkte von mehr als zwei Mengen
♦
A × B × C := { (a, b, c) | a ∈ A , b ∈ B , c ∈ C }
Elemente (a, b, c) heißen Tripel
♦
Entsprechend A × B × C × D
Elemente (a, b, c, d) heißen Quadrupel
♦
Etc. etc.
Mit dem Latein am Ende ?
Elemente von A1 × A2 × . . . × An heißen n-Tupel
?
Statt ‚ Quintupel ‘ also auch ‚ 5-Tupel ‘
Ist (a1 , . . . , an ) n-Tupel , so heißen die ai Komponenten
?
1.1
Die dritte Komponente von (1, 9, 7, 1) ist 7
QM1_16
7
Statt A × A × . . . × A ( n Mal ) auch : An
? Viermalige Durchführung eines Wahrnehmungsexperiments
− Einzelergebnisse jeweils + oder −
? Beschreibung der Ergebnisse der Gesamtversuchs ?
A = {+, −}
Gesamtergebnisse : A4
( a1 , a 2 , a 3 , a 4 )
?
.
.......
..........
...
.
.
.......
..........
...
.
.
.......
..........
...
.
.
.......
..........
...
.
1.
2.
3.
4.
Versuch
(+, −, −, +) : + bei Versuch 1 , − bei Versuch 2 , . . .
? ] Gesamtergebnisse ?
?
Würfeln mit drei Würfeln ( verschiedenfarbig )
? Beschreibung der möglichen Ergebnisse ?
A = {1, 2, 3, 4, 5, 6} ( ein Würfel )
Gesamtergebnisse : A3
?
( 2, 5, 2 ) : 1. Würfel : 2 , 2. Würfel : 5 , 3. Würfel : 2
? ] Gesamtergebnisse ?
1.1
QM1_16
8
•
o
n
|A| = m , |B | = n , |C | = k
⇒ | A×B×C | = m·n·k
Auswahl eines (a, b, c) in 3 Schritten
Möglichkeiten
........................................................................................................................................................................................................................................................................................................
.. . .
........ .... .................
.........
.........
....
.........
.........
........
.........
.
.
.
.
.
.
....
.
.
.........
.........
...
.........
.........
.........
.
.
.
.
.
.
.
.
.........
....
.....
.
.
.
.
.
.
.........
.
.
.
......
.
.
.........
.
.
.
.
.
.
.
...
.......
......
.
.
.
.
.
.
.
............................................................................................................................................................................................................................................................................................................
.
.
.. .
.. .....
.. .....
.
.
... .....
.
.
...
...
..
..
...
...
.
.
.
.
.
.
...
...
...
...
..
..
.
.
.
.
.
.
.
.
...
...
...
...
...
...
...
...
...
...
...
...
...
.
.
.
.
.
.
.
.
.
.
...
...
...
..
..
..
.
.
.
.
.
...
.
.
.
...
...
.
.
.
.
..
...
.
.
.
.
.
.
.
.
...
...
.
.
...
.
.
.
.
...
.
.
.
.
.
..................................................................................................................................................................................................................................................................................................................
..
..........
..........
..........
..........
..........
.
.
.
.
.
........
.. ... ....
.. ... ....
.. ... ....
.. ... ....
.. ... ....
.. .... ....
.
.
.
.
.
.
... ... ...
... ... ...
... ... ...
... ... ...
... ... ...
... ... ...
.. ... ....
.. ... ....
.. ... ....
.. ... ....
.. ... ....
.. ... ....
.
.
.
.
.
.
.
.
.
.
.
.
... ... ....
... ... ....
... ... ....
... ... ....
... ... ....
... ... ....
... .... ....
... .... ....
... .... ....
... .... ....
... .... ....
... .... ....
...
...
...
...
...
...
..
..
..
..
..
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
..
..
..
..
..
.
.
.
.
.
.
..
.. ..
..
.. ..
..
..
.
.
.
.
.
.
..
..
..
..
→
Insgesamt also m · n · k Möglichkeiten
4
Analog für mehr als drei ‚ Faktoren ‘
→
Spezialfall
•
1.1
Ist | A | = n , so | Ak | = nk
m
jeweils n
jeweils k
QM1_16
9
B Wichtige Technik in der Kombinatorik :
− Finde geeignete ‚ Kodierung ‘
→ Übersetze dadurch neue Probleme in bekannte
?
Wie viele Möglichkeiten gibt es beim Würfeln mit drei Würfeln ?
Übersetzung wie oben :
( mit A = {1, 2, 3, 4, 5, 6} )
Die Möglichkeiten entsprechen genau den Elementen von A3
] Möglichkeiten = | A3 | = | A |3 = 63 = 216
B
Entscheidend : die richtige Kodierung
?
] Möglichkeiten bei 4-maligem Wahrnehmungsexperiment ?
Dabei : Möglichkeiten bei einmaliger Durchführung : +, −
→
] Möglichkeiten = 24 = 16
4
Sprechweise :
Elemente von Ak heißen auch k-Tupel aus A
4
Schreibweise :
( 3 Würfel , mit A = {1, 2, 3, 4, 5, 6} )
Möglichkeiten bei drei Würfeln
‚ ↔ ‘ hier : genaue Entsprechung
→
1.1
↔ 3-Tupel aus A
( ‚ bijektiv ‘ )
Wegen der genauen Entsprechung : gleiche Anzahlen
QM1_16
10
?
Beispiel allgemein :
−
Gegeben : Versuch mit n möglichen Ergebnissen
−
Ergebnisse zusammengefasst in Menge G
−
Versuch wird k Mal durchgeführt
?
] Ergebnisse des Gesamtversuchs ?
Geeignete Kodierung :
Ergebnisse des Gesamtversuchs ↔ k-Tupel aus G
→
?
] Gesamtergebnisse = | Gk | = nk
Gegeben ist eine Urne U mit n Kugeln
−
Es wird k Mal mit Zurücklegen gezogen
−
Reihenfolge wird dabei berücksichtigt
?
Wie viele mögliche Ergebnisse gibt es ?
Abgekürzt : k×ZmZmR
− k× Ziehen mit Zurücklegen mit Reihenfolge(berücksichtigung)
1.1
QM1_16
11
?
] Ergebnisse bei k×ZmZmR aus Urne U mit n Kugeln ?
4
U wird aufgefasst als Menge der Kugeln also | U | = n
→
Finde geeignete Kodierung !
Möglichkeiten ↔ k-Tupel aus U
− Übersetzung : j-te Komponente = Kugel des j-ten Zugs
? (2, 4, 1, 2) : 1. Zug : 2 ,
→
?
−
?
2. Zug : 4 ,
3. Zug : 1 ,
4. Zug : 2
] Anzahl Möglichkeiten = nk
Weiteres Beispiel
Gegeben : b Buntstifte und f Fächer
] Möglichkeiten, die Buntstifte auf die Fächer zu verteilen ?
− Es können mehrere Buntstifte in das gleiche Fach kommen
− Fächer können auch leer bleiben
→
Geeignete Kodierung ?
Menge der Fächer : F
Verteilmöglichkeiten ↔ b -Tupel aus F
−
?
→
1.1
j-te Komponente : Fach für den j-ten Buntstift
(4, 3, 4, 5) : 1. Stift : 4. Fach , 2. Stift : 3. Fach , etc.
] Verteilmöglichkeiten = | F b | = f b
QM1_16
12
?
Beispiel : Wie groß ist die Mächtigkeit der Potenzmenge ?
♦ Ist A eine Menge , so ist die Potenzmenge von A die Menge
aller Teilmengen von A
→
Bezeichnung : P(A)
P(A) := { B | B ⊆ A }
Formal :
?
A = {a, b}
→
P(A) = {∅, {a}, {b}, {a, b}}
?
A = {a}
→
P(A) = {∅, {a}}
?
A = ∅
→
P(A) = {∅}
?
Wie groß ist | P(A) | , wenn | A | = n ?
→
Finde geeignete Kodierung !
Elemente von A ordnen
Teilmengen B von A
−
?
Ist A = {1, 2, 3, 4, 5} , so :
{1, 3, 4} ↔ (1, 0, 1, 1, 0)
−
∅ ↔ (0, 0, 0, 0, 0)
1.1
n-Tupel aus {0, 1}
j-te Komponente des n-Tupels : j-tes Element von A in B ?
−
→
↔
] Teilmengen von A = ] n-Tupel aus {0, 1} = 2n
QM1_16
13
→
Lexikographische Reihenfolge
→
Nützliches Hilfsmittel , auch zur Kontrolle :
−
?
→
Systematisches Auflisten aller Möglichkeiten ( dann : Zählen )
Geeignete Systematik ?
Wie im Lexikon
Voraussetzung : Einzelelemente müssen geordnet sein ( werden )
?
4×ZmZmR aus A = {a, b, c}
Geeignete Kurznotation wählen : abac für (a, b, a, c)
→
Ergebnis der lexikographischen Anordnung ( spaltenweise )
aaaa
aaab
aaac
aaba
aabb
aabc
aaca
aacb
aacc
→
1.1
abaa
abab
abac
abba
abbb
abbc
abca
abcb
abcc
acaa
acab
acac
acba
acbb
acbc
acca
accb
accc
baaa
baab
baac
baba
babb
babc
baca
bacb
bacc
bbaa
bbab
bbac
bbba
bbbb
bbbc
bbca
bbcb
bbcc
bcaa
bcab
bcac
bcba
bcbb
bcbc
bcca
bccb
bccc
caaa
caab
caac
caba
cabb
cabc
caca
cacb
cacc
cbaa
cbab
cbac
cbba
cbbb
cbbc
cbca
cbcb
cbcc
ccaa
ccab
ccac
ccba
ccbb
ccbc
ccca
cccb
cccc
Tatsächlich : 81 = 34 Möglichkeiten
QM1_16
14
→
Gleich wahrscheinliche Ergebnisse
♣
Situation : Versuch mit endlich vielen möglichen Ergebnissen
−
→
Alle Ergebnisse werden als gleich wahrscheinlich angesehen
Wahrscheinlichkeit eines Ereignisses dann :
] günstige Ergebnisse
] Ergebnisse insgesamt
?
Beispiel : Einmal Würfeln
−
Mögliche Ergebnisse : 1, 2, 3, 4, 5, 6
−
Gleichwahrscheinlichkeit sei plausibel
?
Mögliches Ereignis : ‚ Gerade Zahl ‘
Günstige Ergebnisse : 2, 4, 6
→
Wahrscheinlichkeit für ‚ Gerade Zahl ‘ :
] günstige Ergebnisse
3
1
=
=
] Ergebnisse insgesamt
6
2
1.1
QM1_16
15
→
Modell der Gleichwahrscheinlichkeit etwas formaler
Unterscheide : Ergebnisse und Ereignisse
?
Beispiel : Würfeln
−
Ergebnisse : 1 , 2 , 3 , 4 , 5 , 6
−
Ereignis beispielsweise : ‚ Gerade Zahl ‘
B
Ereignisse ‚ bestehen aus ‘ Ergebnissen
Menge aller Ergebnisse : Meist Ω
?
Würfelbeispiel : Ω = {1, 2, 3, 4, 5, 6}
Identifiziere Ereignisse mit Teilmengen von Ω
−
?
nämlich mit denen aus den jeweils ‚ günstigen Ergebnissen ‘
‚ Gerade Zahl ‘
entspricht dann
A = {2, 4, 6}
Bei Gleichwahrscheinlichkeit aller Ergebnisse dann :
−
Wahrscheinlichkeit eines Ereignisses A :
P( A ) =
1.1
] günstige Ergebnisse
|A|
=
] Ergebnisse insgesamt
|Ω|
QM1_16
16
W. : Wahrscheinlichkeit
?
Beispiel : Prüfung , 5 Prüflinge
−
3 Prüfungsthemen
−
Wahl des Prüfungsthemas : Karte ziehen
?
→
W. , dass alle das gleiche Thema bekommen ?
Finde geeignete Formalisierung !
Menge der Themen : G = {1, 2, 3}
Prüfungsmöglichkeiten durch 5×ZmZmR aus G
Ω = G5 ,
| Ω | = | G5 | = 35 = 243
Ereignis A : ‚ Alle bekommen das gleiche Thema ‘
−
→
Formal : A = { (1, 1, 1, 1, 1) , (2, 2, 2, 2, 2) , (3, 3, 3, 3, 3) }
P( A ) =
|A|
3
1
1
= 5 = 4 =
|Ω|
3
3
81
B
Modell der Gleichwahrscheinlichkeit angemessen ?
?
Bei verschiedenfarbigen Karten wohl nicht !
1.1
QM1_16
17
→ Permutationen.
♦ Sei G endliche Menge , | G | = n , k ≤ n .
Eine k-Permuation aus G ist ein k-Tupel ( g1 , . . . , gk ) aus G
mit gi 6= gj für alle i 6= j
?
( 3 , 5 , 1 , 2 ) ist eine 4-Permutation aus {1, 2, 3, 4, 5, 6}
?
Gegeben ist eine Urne U mit n Kugeln
−
Es wird k Mal ohne Zurücklegen gezogen
−
Reihenfolge wird dabei berücksichtigt
?
Wie viele mögliche Ergebnisse gibt es ?
Abgekürzt : k×ZoZmR
− k× Ziehen ohne Zurücklegen mit Reihenfolge(berücksichtigung)
→
Finde wieder geeignete Kodierung !
Zugmöglichkeiten ↔ k-Permutationen aus U
?
( 2 , 3 , 1 ) : 1. Zug : 2 , 2. Zug : 3 , 3. Zug : 1
4
Kodierung bekannt von ZmZmR , nur ohne Wiederholungen
→
] Zugmöglichkeiten = ] k-Permutationen aus U
1.1
QM1_16
18
?
] k-Permutationen = ?
♣
G endliche Menge , | G | = n , k ≤ n
→
Erzeugen der k-Permutationen mit Entscheidungsbaum
?
G = {a, b, c, d} ,
k = 2
....
....
....
.... c
b
....
...
...
..
a c
d a b ....d
...
.............
........... ...........
........ ... ..... ...............
........
........ .....
...
.
.
.
.
.
.
.
........
...
.....
........
...
...
........
........
...
...
........
........
...
...
........
.
.
.
........
.
.
.
.
.
.
.
...
.
........
.....
.
.
.
.
.
.
.
.
.
........
.
.
.
...
.....
..
.
.
........
.
.
.
.
.
.
.
.
...
........
.
.....
.
.
.
.
.
.
.
........
.
.
.
.
...
.....
..
.
........
.
.
.
.
.
.
.
.
.
...
........
.
.....
.
.
.
.
.
.
.
.
........
.
.
.
...
.
.....
........
.
.
.
.
.
.
.
.
.
.
.
.
.
........
...
......
............
.....
.
.
.
.
.
.........
........
........
.......
.
.
.
.. .. ...
.. ... ....
.. ... ....
.. ... ....
.
.
.
.. .... ....
. .. ...
. .. ...
. ... ...
.
.
.
.
.
.
.
.
. . ..
. . .
. . .
. . .
... .. ....
... .. .....
... .. .....
... ... .....
...
...
...
...
... ....
... ....
... ....
... ....
...
...
...
...
..
..
..
...
...
...
...
...
...
...
..
...
..
..
...
...
.
.
...
.
.
.
..
.
.
.
.
.
.
...
.
.
...
...
...
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
...
.
.
.
.
...
...
...
...
...
...
...
..
..
..
...
.
.
.
...
.
.
.
.
.
.
.
.
.
.
...
...
...
..
..
..
...
...
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
...
...
...
...
...
...
...
...
.
.
.
.
.
.
..
.
.
.
.
.
.
.
...
..
..
..
...
...
...
...
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
..
..
..
.
.
.
.
..
..
..
..
a
b c
B
B
d
c
Bei der 2. Wahl :
Wahlmöglichkeiten verschieden , aber
−
Zahl der Möglichkeiten gleich ( 3 )
1.1
a b
entspricht ( c , d )
−
→
d
Insgesamt 4 · 3 = 12 Möglichkeiten
QM1_16
19
?
] k-Permutationen = ?
♣
G endliche Menge , | G | = n , k ≤ n
→
Erzeugen der k-Permutationen mit Entscheidungsbaum
−
in k Schritten
− 1. : 1. Komponente – n Möglichkeiten
− 2. : 2. Komponente – jeweils (n − 1) Möglichkeiten
− 3. : 3. Komponente – jeweils (n − 2) Möglichkeiten
. . . . . . . . . . . .
− k. : k. Komponente – jeweils (n − (k − 1)) Möglichkeiten
→
Anzahl der Möglichkeiten insgesamt :
n · (n − 1) · (n − 2) · . . . · (n − (k − 1))
Umformung :
n · (n − 1) · (n − 2) · . . . · (n − (k − 1)) · (n − k) · (n − (k + 1)) · . . . · 1
(n − k) · (n − (k + 1)) · . . . · 1
→
1.1
Das ist
n!
(n − k) !
QM1_16
20
•
] k-Permutationen aus G mit | G | = n :
n!
(n − k)!
?
−
|G| = 4 ,
k = 2
] k-Permutationen :
1·2·3·4
4!
=
= 3 · 4 = 12
(4 − 2) !
1·2
B
−
?
→
Formel bequeme Schreibweise
als Rechenvorschrift weniger geeignet
3×ZoZmR aus Urne mit 7 Elementen
] Möglichkeiten :
7!
= 5 · 6 · 7 = 210
(7 − 3) !
?
−
?
7-köpfiger Verein , zu bilden : 3-köpfiger Vorstand
verschiedene Ämter
] mögliche Vorstände ?
Übersetzung : 3×ZoZmR aus 7 Mitgliedern
→
1.1
] mögliche Vorstände : 210
QM1_16
21
→
Spezialfall k = n
♦ Die n-Permutationen aus G mit | G | = n heißen auch
einfach Permutationen ( von G )
4
Permutationen : Mögliche Reihenfolgen der Elemente von G
•
] Permutationen von G mit | G | = n :
o
n
Begründung wie bei k-Permutationen ( nur einfacher )
4
Die allgemeine Formel stimmt :
n!
n!
n!
n!
=
=
= n!
(n − n) !
0!
1
B
Die Definition 0 ! = 1 erweist sich als sinnvoll
?
Klausur aus 5 Aufgaben
?
] Reihenfolgen der Bearbeitung ?
Die Reihenfolgen sind gerade die Permutationen der Aufgaben
→
1.1
] Reihenfolgen der Bearbeitung : 5 ! = 120
QM1_16
22
?
−
→
Urne U mit Kugeln 0 , . . . , 9 ( Ziffern )
3×ZmZmR ( zufällig )
Ergebnis : 3-stellige Zahl
( wie 385 , 121 , 007 , . . . )
? W. einer Zahl ohne Ziffernwiederholung ?
→
Geeignete Modellierung
Setze U = { 0, 1, . . . , 9 }
Ω = U3 ,
| Ω | = 103 = 1000
Annahme der Gleichverteilung sei angemessen
‚ Verschiedene Ziffern ‘ : Ereignis A
Elemente von A sind gerade die 3-Permutationen aus U
→
?
P( A ) =
W., dass mindestens 2 Ziffern gleich sind ?
→
B
1.1
8 · 9 · 10
|A|
=
= .72
|Ω|
1000
1 − P( A ) = .28
Gegenereignisse
QM1_16
23
→
Kombinationen.
♦ Sei G endliche Menge , | G | = n , k ≤ n .
Eine k-elementige Teilmenge von G heißt auch k-Kombination
aus G
?
Gegeben ist eine Urne U mit n Kugeln
−
Es wird k Mal ohne Zurücklegen gezogen
−
Reihenfolge wird nicht berücksichtigt
?
Wie viele mögliche Ergebnisse gibt es ?
Abgekürzt : k×ZoZoR
− k× Ziehen ohne Zurücklegen ohne Reihenfolge(berücksichtigung)
→
Finde wieder geeignete Kodierung !
Zugmöglichkeiten ↔ k-Kombinationen aus U
−
Teilmenge der gezogenen Kugeln
→
] Zugmöglichkeiten = ] k-Kombinationen aus U
B
Im Ergebnis dasselbe wie Ziehen aller Kugeln auf einmal
1.1
QM1_16
24
4 Erinnerung : Bei Mengen spielt die Reihenfolge keine Rolle
?
{ a , b , c , d } = { d , b , a , c } ( = { d , b , d , c , a } etc. )
?
Lexikographische Auflistung der 3-Kombinationen aus { a, b, c, d, e }
Elemente sind schon in natürlicher Weise geordnet
Geeignete Kurznotation vereinbaren : abe statt { a , b , e }
Elemente einer Teilmenge in natürlicher Ordnung notieren
→
Auflistung :
abc abd abe acd ace ade bcd bce bde cde
1.1
QM1_16
25
?
] k-Kombinationen aus G ?
→
?
(|G| = n)
Anzahl sei x
Neue Frage : ] k-Permutationen ?
−
Antwort bekannt : n ! / (n − k) !
Trotzdem : Neue Antwort finden !
→
Herstellung der k-Permutationen in zwei Schritten
1. Wahl der k Elemente der Permutation ( ohne Ordnung )
−
x Möglichkeiten
2. Wahl einer Reihenfolge der gewählten Elemente
−
→
Jeweils k ! Möglichkeiten
] k-Permutationen : x · k !
Gleichsetzen :
x·k! =
→
Auflösen :
x =
1.1
n!
(n − k) !
n!
k ! (n − k) !
QM1_16
26
• Sei G endliche Menge , | G | = n , k ≤ n .
Die Anzahl der k-Kombinationen aus G ist dann
n!
k ! (n − k) !
?
3×ZoZoR aus Urne mit 5 Kugeln
n = 5, k = 3
→
B
5!
5!
4·5
2·5
=
=
=
= 10
3 ! (5 − 3) !
3! 2!
1·2
1·1
Kürzungsoperationen möglichst ökonomisch !
♦ Die Zahlen
n
n!
:=
k ! (n − k) !
k
heißen auch Binomialkoeffizienten
Sprechweise : n über k
B
Binomialkoeffizient
.
......
.........
...
..
...
.
kein n !!!
1.1
QM1_16
27
→
Eigenschaften der Binomialkoeffizienten
n
n
=
k
n−k
•
o
n
n
n−k
=
n!
(n − k) ! (n − (n − k)) !
n!
n!
=
=
=
(n − k) ! k !
k ! (n − k) !
4
•
o
n
1.1
n
n
=
= 1
0
n
•
o
n
n
k
n!
n
n!
=
= 1
=
0 ! (n − 0) !
1 · n!
0
Insbesondere :
0
= 1
0
n
n
=
= n
1
n−1
n!
n
n!
=
=
= n
1 ! (n − 1) !
1 · (n − 1) !
1
QM1_16
28
→
Eigenschaften anschaulich :
n
n
=
k
n−k
→
Gegeben G mit | G | = n
Mit Komplementbildung :
k-elementige Teilmengen ↔ (n − k)-elementige Teilmengen
?
?
Mit G = { 1, 2, 3, 4, 5, 6 } :
A = { 1, 3, 4, 6 }
↔
Ac = { 2, 5 }
→ ] k-elementige Teilmengen = ] (n − k)-elementige Teilmengen
n
n
=
= 1
0
n
→
→
Es gibt eine Teilmenge mit 0 Elementen ( ∅ )
→
Es gibt eine Teilmenge mit n Elementen ( G selber )
n
= n
1
→
→
−
1.1
Entsprechung :
Elemente ↔ 1-elementige Teilmengen
a
↔
{a}
QM1_16
29
→ Binomische Formeln
?
?
( a + b )n = ?
(a + b)3 = (a + b)(a + b)(a + b)
= aaa + aab + aba + abb + baa + bab + bba + bbb
= a3 + a2 b + a2 b + ab2 + a2 b + ab2 + ab2 + b3
= a3 + 3 a2 b + 3 ab2 + b3
→
Schritte :
−
Alles ausmultiplizieren
−
Faktoren in Produkten umordnen
−
Gleiche Summanden zusammenfassen
4
Ausmultiplizieren :
−
3 ursprüngliche Faktoren (a + b)
−
Jeder davon liefert entweder a oder b
→
1.1
Alle entstehenden Produkte haben 3 Faktoren ( a oder b )
QM1_16
30
( a + b )n = ?
?
→
Lösung :
( a + b )n als Produkt von n Faktoren (a + b) ausschreiben
Ausmultiplizieren
−
Ergebnis : Summe von Produkten aus Faktoren a , b
−
Jedes Produkt hat n solche Faktoren
Faktoren in den Produkten umordnen
−
Alle Produkte haben die Form ak bn−k ( k = 0, . . . , n )
Gleiche Summanden ak bn−k zusammenfassen
?
Wie oft kommt ak bn−k vor ?
] Möglichkeiten , aus den n Faktoren (a + b)
diejenigen k auszuwählen , die a liefern
ak bn−k
•
n
kommt
Mal vor
k
( a + b )n
n X
n k n−k
=
a b
k
k=0
1.1
QM1_16
31
n
(a + b)
→
n X
n k n−k
=
a b
k
k=0
?
n = 0
0 X
0 k 0−k
0 0 0
(a + b) =
a b
=
a b = 1·1·1 = 1
k
0
0
k=0
?
n = 1
( a + b )1
1 X
1 k 1−k
=
a b
k
k=0
1 0 1−0
1 1 1−1
=
a b
+
a b
0
1
= 1·1·b + 1·a·1 = b + a = a + b
?
n = 2
( a + b )2
2 X
2 k 2−k
=
a b
k
k=0
2 0 2−0
2 1 2−1
2 2 2−2
a b
+
a b
=
a b
+
0
1
2
= 1 · 1 · b2 + 2 · a · b + 1 · a2 · 1
= b2 + 2 ab + a2 = a2 + 2 ab + b2
1.1
QM1_16
32
n
(a + b)
→
n X
n k n−k
=
a b
k
k=0
?
n = 5
( a + b )5
5 X
5 k 5−k
=
a b
k
k=0
5 2 5−2
5 1 5−1
5 0 5−0
+
a b
+
a b
+
=
a b
2
1
0
5 3 5−3
5 4 5−4
5 5 5−5
+
a b
+
a b
+
a b
3
4
5
= 1 · 1 · b5 + 5 · a · b4 + 10 · a2 · b3 +
+ 10 · a3 · b2 + 5 · a4 · b1 + 1 · a5 · 1
= a5 + 5 a4 b + 10 a3 b2 + 10 a2 b3 + 5 ab4 + b5
4
1.1
( a − b )n = ( a + (−b) )n
QM1_16
33
→
Pascalsches Dreieck
→
Übersichtliche Anordnung der Binomialkoeffizienten
n :
0
1
2
3
4
5
.
4
1.1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
1
1
2
3
4
6
1
5
10
. . . . . . .
k : 0
.
1
.
1
.
1
3
1
4
10
5
. . .
2
3
.
4
.
1
5
.
1
. . .
.
Jeder Koeffizient ist Summe der darüberliegenden
QM1_16
34
→
?
Nochmal : Mächtigkeit der Potenzmenge
Wie viele Teilmengen besitzt eine Menge der Mächtigkeit n ?
→ Beantwortung in zwei Schritten :
Wie viele Teilmengen der Mächtigkeit k gibt es ?
− Dabei : k = 0 , 1 , . . . , n
Aufsummieren dieser Anzahlen
B
−
→
Hier ist zu summieren !
Aufteilung aller Möglichkeiten in disjunkte Klassen
Lösung also :
n
] Teilmengen mit Mächtigkeit k :
k
Summieren :
n n X
X
n
n k n−k
=
1 1
= ( 1 + 1 )n = 2n
k
k
k=0
1.1
k=0
QM1_16
35
?
→
] n-Tupel aus { 0 , 1 } mit genau k Einsen ?
Finde geeignete Kodierung !
n-Tupel mit k Einsen ↔ k-elementige Teilmengen von {1, . . . , n}
−
?
Teilmenge : Stellen der Einsen
( 0, 1, 0, 0, 1, 1, 0 )
↔
{ 2, 5, 6 }
4
Kodierung ist ( umgekehrt ) schon bekannt
→
n
] n-Tupel mit k Einsen =
k
?
−
?
→
1.1
6-köpfiger Verein braucht 2-köpfigen Vorstand
Vorstände ganz gleichberechtigt
] Möglichkeiten ?
6
6!
6!
5·6
=
=
=
= 15
2
2 ! (6 − 2) !
2!4!
1·2
QM1_16
36
♣
Gegeben : 3 M(änner) , 4 F(rauen)
?
] Möglichkeiten einer 4-köpfigen Delegation mit ≥ 2 F ?
−
→
Delegationsmitglieder sind gleichberechtigt
Lösung im Überblick :
Einteilung der Möglichkeiten in disjunkte Klassen
−
definiert durch die Anzahl der F
Ermittlung der ] Möglichkeiten in den einzelnen Klassen
Aufsummieren dieser Zahlen
→
Lösung konkret :
Klassen gegeben durch 2 , 3 , 4 F
?
1.1
Teilproblem : ] Möglichkeiten mit genau k Frauen ?
QM1_16
37
?
Teilproblem : ] Möglichkeiten mit genau k Frauen ?
?
k = 2
→
Lösung in zwei Schritten :
Wahl von 2 F ( aus 4 )
4
− ] Möglichkeiten :
2
Wahl von ( 4 − 2 ) = 2 M ( aus 3 )
3
− ] Möglichkeiten :
2
→
Jede F-Wahl kann mit jeder M-Wahl kombiniert werden
→
4
3
] Gesamtmöglichkeiten :
= 6 · 3 = 18
2
2
?
→
?
→
1.1
Entsprechend für k = 3 :
4
3
] Gesamtmöglichkeiten :
= 4 · 3 = 12
3
1
Entsprechend für k = 4 :
4
3
] Gesamtmöglichkeiten :
= 1· 1 = 1
4
0
QM1_16
38
→ Zurück zur Lösung :
3 disjunkte Klassen von Möglichkeiten
−
2 , 3 oder 4 F
jeweilige ] Möglichkeiten :
−
18 ( 2 F ) ,
12 ( 3 F ) ,
1 (4 F),
→
] Möglichkeiten insgesamt : Summieren
→
18 + 12 + 1 = 31
→
Alternativlösung über das Gegenteil :
Gegenteil von ≥ 2 F : < 2 F
Hier : 1 F
( da insgesamt 3 M )
] Möglichkeiten mit 1 F : 4
7
] Möglichkeiten für irgendeine Delegation :
= 35
4
→
1.1
] Möglichkeiten mit ≥ 2 F : 35 − 4 = 31
QM1_16
39
→
Hypergeometrische Verteilung
♣
Standardbeispiel : Urne mit n Kugeln
−
( rot oder blau )
Davon : m rot und n − m blau
k×ZoZoR
( oder : auf einmal k Kugeln ziehen )
(0 ≤ r ≤ k)
?
W. für r rote Kugeln ?
B
Voraussetzung : Alle Möglichkeiten gleich wahrscheinlich
−
→
Kugeln seien physikalisch nicht ‚ wesentlich verschieden ‘
W. dann über Quotienten
] günstige Möglichkeiten
] Möglichkeiten insgesamt
n
] Möglichkeiten insgesamt =
k
?
1.1
] günstige Möglichkeiten = ?
QM1_16
40
?
] günstige Möglichkeiten = ?
Günstige Möglichkeit hier : r rote und k − r blaue Kugeln
→
Herstellung dieser Möglichkeiten in zwei Schritten
Wahl von r roten Kugeln ( aus m )
m
− ] Möglichkeiten :
r
Wahl von k − r blauen Kugeln ( aus n − m )
n−m
− ] Möglichkeiten :
k−r
→
Jede Wahl kann mit jeder kombiniert werden
→
m
n−m
] günstige Möglichkeiten :
r
k−r
→
W. für r rote Kugeln :
m
n−m
r
k−r
n
k
1.1
QM1_16
41
• n Kugeln , m rot ( Rest blau ) , k×ZoZoR ,
− Möglichkeiten gleichwahrscheinlich
→
W. für r rote Kugeln in der Ziehung :
m
n−m
r
k−r
n
k
?
n = 12 ,
m = 8,
?
W. für r = 4 rote Kugeln
k = 6
8
4
8
12 − 8
5
70 · 6
4
2
4
6−4
=
= .4545
= =
12
12
924
11
6
6
?
W. für r = 1 rote Kugel
8
12 − 8
8
4
1
6−1
1
5
= = ??
12
12
6
6
4
Geht auch nicht : 6 − 1 = 5 blaue Kugeln aus 4 ziehen ?
B
Herleitung war zu oberflächlich
1.1
QM1_16
42
♦
Definitionserweiterung :
n
:= 0
k
für ganzes k mit k < 0 oder k > n
→
Dann :
?
n = 12 ,
?
W. für r = 1 rote Kugel
m = 8,
k = 6
8
12 − 8
8
4
8·0
1
6−1
1
5
= =
= 0
12
12
924
6
6
→
Passt !
B
Definitionserweiterung vermeidet lästige Fallunterscheidungen
1.1
QM1_16
43
?
−
Lotto : 6 aus 49
Zusatzzahl wird nicht berücksichtigt
?
Wie wahrscheinlich sind r Richtige ? ( r = 0 , 1 , . . . , 6 )
?
Wo liegt der Zufall ?
−
Im Tipp ??
−
In der Ziehung !
→
−
→
Voraussetzung : Alle Ziehungen sind gleich wahrscheinlich
Plausibel ( ? )
Korrekte Art der Problemstellung :
−
Der Tipp liegt vor ( 6 Zahlen )
−
Die Kugeln werden ‚ zufällig ‘ gezogen
?
1.1
W. , dass r von den 6 getippten Zahlen gezogen werden = ?
QM1_16
44
?
→
−
→
?
→
−
→
W. , dass r von den 6 getippten Zahlen gezogen werden = ?
Hilfsvorstellung :
Die getippten Zahlen sind rot , die anderen blau ( ätherisch )
Frage dann :
W. für r rote Kugeln bei 6×ZoZoR
Zurückführung des Problems auf das Standardbeispiel
mit n = 49 , m = 6 , k = 6
Lösung : Die W. für r Richtige ist
6
43
6
49 − 6
r
6−r
r
6−r
=
49
49
6
6
?
r = 6
6
43
1·1
1
6
6−6
=
=
49
13 983 816
13 983 816
6
1.1
QM1_16
45
♣
−
Allgemeine Situation : n Kugeln
Davon : m rot und n − m blau
k×ZoZoR
→
−
( rot oder blau )
( oder : auf einmal k Kugeln ziehen )
Neue Sichtweise :
Die Zahl R der gezogenen roten Kugeln ist Zufallsvariable
Abkürzung : Zva
Diese Zva hat eine Verteilung
Beschreibung der Verteilung durch ihre W-Funktion : fR
4
fR gibt für jedes mögliche r die W. P( R = r ) an
→
Hier also :
−
→
fR ordnet r die W. für Ziehung mit r roten Kugeln zu
Die W.-Funktion ist hier gegeben durch
m
n−m
r
k−r
fR (r) =
n
k
1.1
(r = 0, ... ,k)
QM1_16
46
♦ Ist n > 0 , 0 ≤ m , k ≤ n , und ist die Verteilung einer Zva R
durch die W-Funktion fR mit
m
n−m
r
k−r
fR (r) =
(r = 0, ... ,k)
n
k
gegeben , so heißt die Verteilung von R auch hypergeometrische
Verteilung mit den Parametern n , m , k
Abkürzung für diese Verteilung : H(n , m , k)
Abkürzung dafür , dass R diese Verteilung hat : R ∼ H(n , m , k)
?
Ist R Zahl der Richtigen im Lotto 6 aus 49 , so gilt
R ∼ H(49 , 6 , 6)
?
−
→
Gegeben : 3 M(änner) , 5 F(rauen)
Durch Losen wird eine 4-köpfige Delegation gebildet
Ist R die Zahl der F in der Delegation , so gilt
R ∼ H(8 , 5 , 4)
1.1
QM1_16
47
?
Die H(49 , 6 , 6)-Verteilung
?
Lotto , 6 aus 49
−
R : Zahl der Richtigen
−
R ∼ H(49 , 6 , 6)
Verteilung von R über die W-Funktion
−
Exakte Werte : hier ungekürzt , gleicher Nenner
r
0
1
2
3
4
5
6
P(R = r) exakt P(R = r) gerundet
6096454/13983816
0.435965
5775588/13983816
0.413019
1851150/13983816
0.132378
246820/13983816
0.017650
13545/13983816
0.000969
258/13983816
0.000018
1/13983816
7.15×10−8
13983816/13983816
1
P(R = r)
.5
.1
0
1.1
r
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
...
...
...
...
...
.
..
.
r
.
r
.
r
.
0
1
2
3
4
5
6
r
r
r
QM1_16
48
?
Lotto , 6 aus 49
?
W. für mindestens 3 Richtige ?
Anders formuliert : P( R ≥ 3 ) = ?
→ ‚ R ≥ 3 ‘ setzt sich zusammen aus
‚ R = 3‘ , ‚ R = 4‘ , ‚ R = 5‘ , ‚ R = 6‘
Möglichkeiten sind ‚ disjunkt ‘
→
Wn addieren sich
P( R ≥ 3 ) = P( R = 3 ) + P( R = 4 ) + P( R = 5 ) + P( R = 6 )
= .017650 + .000969 + .000018 + .0000000715
= .01864
1.1
QM1_16
49
?
Die H(8 , 5 , 4)-Verteilung
?
Auslosen einer Delegation von 4 aus 3 M und 5 F
−
R : Zahl der F
−
R ∼ H(8 , 5 , 4)
Verteilung von R über die W-Funktion
−
Exakte Werte : hier ungekürzt , gleicher Nenner
r P(R = r) exakt P(R = r)
0
0/70
1
5/70
2
30/70
3
30/70
4
5/70
70/70
gerundet
0
0.071429
0.428571
0.428571
0.071429
1
P(R = r)
.5
.1
0
1.1
r
.
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
0
1
2
r
r
r
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
3
4
r
r
QM1_16
50
Elementare W-Theorie.
→
Ziel : Etwas vereinfachte Theorie endlicher W-Räume
→
Formalisierung des Konzeptes ‚ Wahrscheinlichkeit ‘
→
Grundbegriffe :
−
Grundgesamtheit , Ergebnisse
−
Ereignisse
−
W-Maße
Ergebnisse sind die möglichen Ausgänge eines Versuchs oder
Zufallsexperiments
−
In adäquater Genauigkeit beschrieben
−
Ohne ‚ irrelevante ‘ Aspekte
?
Würfel zeigt eine 6
?
I.A. irrelevant : Würfel fällt auf die-und-die Stelle des Tisches
♦
Die Grundgesamtheit ist die Menge der möglichen Ergebnisse
Symbol meist Ω
♣
Ω : zunächst immer mit endlicher Mächtigkeit
1.2
QM1_16
51
?
Würfeln
−
Ω = { 1, 2, 3, 4, 5, 6 }
?
Würfeln mit zwei Würfeln ( unterscheidbar )
−
?
?
Ω = { 1, 2, 3, 4, 5, 6 } × { 1, 2, 3, 4, 5, 6 }
(2, 5) : Erster Würfel : 2 , zweiter Würfel : 5
Zufälliges Ziehen eines Studierenden
−
Elementarbaustein für das Ziehen einer Stichprobe
Dazu : M : Menge der Männer , F : Menge der Frauen
G = M ∪F
→
1.2
Ω = G
QM1_16
52
?
Zufälliges Ziehen von 2 Studierenden aus G = M ∪ F
−
?
Stichprobe vom Umfang 2
Ω =?
Wie wird gezogen ?
ZmZmR
−
ZoZmR
−
Ω = {A | A ⊆ G, |A| = 2}
Roulette
−
1.2
Ω = G × G \ { (g, g) | g ∈ G }
ZoZoR
−
?
Ω = G×G
Ω = { 0, 1, . . . , 36 }
QM1_16
53
→
Ereignisse
?
Worauf sollen sich Wn beziehen ?
?
‚ Gerade Zahl ‘ beim Würfeln
?
‚ Rouge ‘ beim Roulette
?
‚ 4 Richtige‘ im Lotto
?
‚ 2 Männer ‘ beim Ziehen einer 2-er Stichprobe aus G = M ∪ F
B
Diese Beispiele : keine Ergebnisse
→
Sinnvoll : Einführung eines adäquaten Begriffs
→
Begriff des ‚ Ereignisses ‘
→
geeignete Formalisierung ?
1.2
QM1_16
54
→
Formalisierung des intuitiven Begriffs ‚ Ereignis ‘
Bei ‚ Ereignissen ‘ :
−
?
‚ Passende ‘ und ‚ nicht passende ‘ Ergebnisse
‚ Gerade Zahl ‘ beim Würfeln
?
2 ‚ passt ‘ , 5 ‚ passt nicht ‘
? ‚ 2 Männer ‘ bei 2×ZoZmR aus G = M ∪ F
?
( Max , Moritz ) ‚ passt ‘ , ( Fritz , Heidi ) ‚ passt nicht ‘
Zusammenfassung der ‚ passenden ‘ Ergebnisse
−
?
zu einer Teilmenge von Ω
Würfeln ,
?
?
?
1.2
Ω = { 1, 2, 3, 4, 5, 6 }
‚ Gerade Zahl ‘ →
{ 2, 4, 6 }
Würfeln mit 2 Würfeln ,
Ω = { 1, 2, 3, 4, 5, 6 }2
‚ Augensumme 5 ‘ →
{ (1, 4), (2, 3), (3, 2), (4, 1) }
QM1_16
55
?
Zufälliges Ziehen eines Studierenden ,
‚ Ziehen einer Frau ‘ →
?
Ω = G = M ∪ F
F
Zufälliges Ziehen von 2 Studierenden aus G = M ∪ F
?
?
‚ Ziehen von 2 Männern ‘ →
ZmZmR ,
?
‚ Ziehen von 2 Männern ‘ →
ZoZoR ,
?
‚ Ziehen von 2 Männern ‘ →
?
?
Ω = G×G
M ×M
Ω = {A | A ⊆ G, |A| = 2}
{A | A ⊆ M , |A| = 2}
Roulette
?
‚ Rouge ‘ →
{ 1, 3, 5, 7, 9, 12, 14, 16, 18, 19, 21, 23, 25, 27, 30, 32, 34, 36 }
?
1.2
‚ Manque ‘ →
{ 1, 2, . . . , 18 }
QM1_16
56
4
Bisher : ‚ natürliche ‘ Zuordnung :
→
‚ Ereignisse ‘
→
−
→
−
4
Teilmengen von Ω
Präzisierender Schritt :
Ereignisse sind Teilmengen von Ω
Bei endlichen Grundgesamtheiten sogar ( etwas vereinfachend ) :
Alle Teilmengen von Ω sind Ereignisse
Ereignisse und Teilmengen von Ω
Sprechweise : Ereignis A tritt ein
−
heißt :
Für das Ergebnis ω des Versuchs gilt ω ∈ A
Würfeln , A = {2, 4, 6}
?
sind dasselbe
( ‚ Gerade Zahl ‘ )
?
Ergebnis ist 2
→
A tritt ein
?
Ergebnis ist 5
→
A tritt nicht ein
1.2
QM1_16
57
→
−
♦
−
♦
→
Besondere Ereignisse
Ω tritt immer ein
Ω heißt das sichere Ereignis
∅ tritt nie ein
∅ heißt das unmögliche Ereignis
Sonderfall : Einelementige Ereignisse
?
Würfeln : {6}
B
Unterscheide :
−
Ergebnis 6
−
Ereignis {6}
4
1.2
( ‚ Es fällt eine 6 ‘ )
Unterscheidung hier etwas künstlich
Einelementige Ereignisse heißen auch Elementarereignisse
QM1_16
58
→
Ereignisraum
Fasse alle Ereignisse zu einer Menge zusammen
→
Resultat : P( Ω )
♦
P( Ω ) heißt auch Ereignisraum oder Ereignisalgebra
4
( Voraussetzung : | Ω | ist endlich )
?
Anzahl der Ereignisse ?
•
Ist | Ω | = n , so | P( Ω ) | = 2n
?
Würfeln
( Ω = {1, 2, 3, 4, 5, 6} )
−
] Ergebnisse : 6
−
] Ereignisse : 26 = 64
1.2
QM1_16
59
→
Ereignisse und Mengenoperationen
4
Mengenoperationen mit Ereignissen → neue Ereignisse
4
Möglichkeit des ‚ Rechnens ‘ mit Ereignissen
B
Daher die Bezeichnung Ereignisalgebra für P( Ω )
?
Durchgehendes Beispiel : 2×ZmZmR aus G = M ∪ F
−
Ω = G2
P1 : erste gezogene Person , P2 : zweite gezogene Person
−
A = M × G
( P1 ist M(ann) )
−
B = G × F
( P2 ist F(rau) )
1.2
QM1_16
60
Mengenoperation ∪
?
Ereignis A ∪ B ?
A ∪ B tritt ein , wenn für Ergebnis ω gilt : ω ∈ A ∪ B
wenn also ω ∈ A oder ω ∈ B ( oder beides )
wenn also A eintritt oder B eintritt ( oder beides )
→
A ∪ B : A tritt ein oder B tritt ein ( oder beides )
B
‚ Oder ‘ hier ‚ nicht ausschließend ‘
2×ZmZmR aus G = M ∪ F , A = M × G , B = G × F
?
−
A ∪ B = (M × G) ∪ (G × F )
−
P1 ist M oder P2 ist F ( oder beides )
A ∪ B tritt ein bei den Ergebnissen
?
( Max, Moritz ) , ( Petra, Erna ) , ( Pierre, Joelle)
? A ∪ B tritt nicht ein beim Ergebnis ( Nastasja, Ivan )
1.2
QM1_16
61
Mengenoperation ∩
?
Ereignis A ∩ B ?
A ∩ B tritt ein , wenn für Ergebnis ω gilt : ω ∈ A ∩ B
wenn also ω ∈ A und ω ∈ B
wenn also A eintritt und B eintritt
→
A ∩ B : A tritt ein und B tritt ein
2×ZmZmR aus G = M ∪ F , A = M × G , B = G × F
?
−
A ∩ B = (M × G) ∩ (G × F ) = M × F
−
P1 ist M und P2 ist F
? A ∩ B tritt ein beim Ergebnis ( Eusebius, Genoveva )
A ∩ B tritt nicht ein bei den Ergebnissen
?
1.2
( Pere, Pau ) , ( Daisy, Mary ) , ( Mercedes, Ramón)
QM1_16
62
Mengenoperation
?
Ereignis Ac ?
c
Ac tritt ein , wenn für Ergebnis ω gilt : ω ∈ Ac
wenn also ω ∈
/A
wenn also A nicht eintritt
→
Ac : A tritt nicht ein
2×ZmZmR aus G = M ∪ F , A = M × G
?
−
Ac = ( M × G )c = F × G
−
P1 ist nicht M ( also : P1 ist F )
? Ac tritt ein bei den Ergebnissen
?
( Bertha, Martha ) , ( Julia, Romeo )
? Ac tritt nicht ein bei den Ergebnissen
?
1.2
( Hans, Hans ) , ( Romeo, Julia )
QM1_16
63
Mengenoperation \
?
Ereignis A \ B ?
A \ B tritt ein , wenn für Ergebnis ω gilt : ω ∈ A \ B
wenn also ω ∈ A , aber nicht ω ∈ B
wenn also A eintritt , aber B nicht eintritt
→
A \ B : A tritt ein , B jedoch nicht
2×ZmZmR aus G = M ∪ F , A = M × G , B = G × F
?
−
A \ B = (M × G) \ (G × F ) = M × M
−
P1 ist M , P2 aber nicht F ( also : P1 und P2 sind M )
? A \ B tritt ein beim Ergebnis ( Hans, Franz )
A \ B tritt nicht ein bei den Ergebnissen
?
1.2
( Eugen, Lisa ) , ( Anna, Anna ) , ( Papagena, Papageno)
QM1_16
64
?
Ausschließendes Oder
?
Wie ist ausschließendes Oder zu formulieren ?
→
Beispielsweise so : ( A ∪ B) \ ( A ∩ B )
−
A oder B tritt ein , nicht aber beide
−
Also : Genau eines der Ereignisse A , B tritt ein
2×ZmZmR aus G = M ∪ F , A = M × G , B = G × F
?
−
( A ∪ B) \ ( A ∩ B ) = ( ( M × G ) ∪ ( G × F ) ) \ ( M × F )
−
P1 ist M oder P2 ist F , aber nicht beides
( A ∪ B) \ ( A ∩ B ) tritt ein bei den Ergebnissen
?
( Hermann, Heinrich ) , ( Gerda, Gerda )
( A ∪ B) \ ( A ∩ B ) tritt nicht ein bei den Ergebnissen
?
1.2
( Hermann, Hilde ) , ( Hilde, Hermann )
QM1_16
65
→
?
Aussagen über Ereignisse in Mengensprache
Beispiele hier : Experiment Würfeln mit 2 Würfeln
−
−
Ω = { 1, 2, 3, 4, 5, 6 }2
S : Abkürzung für Augensumme
A ∩ B = ∅
A und B können nicht beide eintreten
In diesem Fall heißen A und B auch disjunkt
?
A : ‚ S > 8 ‘ und B : ‚ 1. Würfel zeigt 1‘ sind disjunkt
A ∪ B = Ω
−
?
1.2
Es tritt immer ( mindestens ) eines der Ereignisse A , B ein
Für A : ‚ S > 4 ‘ und B : ‚ S < 9 ‘ gilt A ∪ B = Ω
QM1_16
66
A ⊆ B
?
Bedeutung ?
Wenn A eintritt , so gilt für Ergebnis ω : ω ∈ A
Wegen A ⊆ B gilt dann auch ω ∈ B
Es tritt also auch B ein
→
A ⊆ B : Wenn A eintritt , so tritt auch B ein
?
Für A : ‚ 1. Würfel ≥ 5 ‘ und B : ‚ S ≥ 4 ‘ gilt A ⊆ B
?
Noch ein Beispiel mit zwei Würfeln
−
G = { 2, 4, 6 } ,
−
A : ‚ S ist gerade ‘
→
U = { 1, 3, 5 }
G × U ⊆ Ac
Wenn 1. Würfel : gerade Zahl und 2. Würfel : ungerade Zahl
→
1.2
so gilt : Augensumme nicht gerade
QM1_16
67
→
Gegenereignisse
♦
Ist A Ereignis , so heißt Ac auch Gegenereignis von A
4
Wegen (Ac )c = A ist A auch Gegenereignis von Ac
→
Sprechweise auch : A und Ac sind Gegenereignisse
Eigenschaften von Gegenereignissen :
−
A ∩ Ac = ∅
−
A ∪ Ac = Ω
4
?
−
?
−
1.2
Es tritt immer genau eines der Ereignisse A , Ac ein
Ein Würfel , G = { 2, 4, 6 } ,
U = { 1, 3, 5 }
Das Gegenereignis von G ist U
Zwei Würfel , G = { 2, 4, 6 } ,
U = { 1, 3, 5 }
Das Gegenereignis von G×{1, 2, 3, 4, 5, 6} ist U ×{1, 2, 3, 4, 5, 6}
QM1_16
68
→
Disjunkte Zerlegungen
♦ Sind A1 , . . . , An , A ⊆ Ω , so heißt ( A1 , . . . , An ) disjunkte
Zerlegung von A , falls
(i) Ai ∩ Aj = ∅ für i 6= j
(ii) A1 ∪ A2 ∪ . . . ∪ An = A
Abkürzung : d.Z.
?
( A , Ac ) ist d.Z. von Ω
....................................................................................................................................................................................................................................................................................................................................
...
...
.......................................................................................................................................................................
.........................................................................................................................................................................................
.................................................... ... ... ... .... .........................................................................................
...
..
..... . . .. .. . .. ....
.................................... ... ... ... ... ... ... ... .................................................................................
.........................
..
..... ... ... ... ... ... ... ... ... ...
........................................................ .... .... .... .... .... .... .... ..........................................................................
............................... ... .... .... .... .... .... .... ... .... .........................................................................
.............................. .... ... ... ... ... ... ... .... ... .........................................................................
.............................. ... ... ... ... ... ... ... ... ... ........................................................................
... .. .. .. .. .. ... .. .. .. ...
...
..
.
. .
. .
...................................... ... .... .... ... .... .... .... ... ........................................................................
..................................... ... ... ... ... ... ... ... ................................................................................
....... .. . .. ... .. .. .....
...
..
..................................................... ..... .... ... ................................................................................................
..................................................................................................................................................................................
......................................................................................................................................................................
...
..
...................................................................................................................................................................
...................................................................................................................................................................
Ω
A
?
( A \ B , A ∩ B ) ist d.Z. von A
....................................................................................................................................................................
...
....
....
...
....
...
......................................... ......................................
.
.
.
.
.
.
...
...
.
......
... ... ... ... ... ... ...............
.
.
.
.
.
.
...
...
.
.
.
.....
........ ... ... .... .... ............................
.
.
.
.
...
...
...
... ... ... ... ... .......
...........................
.
......
.
.
.
.
.. . . . . ..............................
. .....
..........................
..
.... .................................. .... .... .... ....
..
............................
...
...
...
... ... .... ... ... ... ....................................
..
.
...
.
.... ... ... ... ... ... .....................................
... ... ... .. .. ... ...
..
...
...
....
... ... ... ... ... ... ....................................
...
...
...
..... ... .. .. ... ...............................
..
...
...
.... ... ... ... ... .......
...
.
.
.
...
...
.
.
... .. .. .. .. ... ......................
..
.
....... .. .. .. .. ....... ....
.
...
...
.
...
...... .. .. ... .. . ..........
.
.
.
...
...
.
........ .. .. .. ..................
..
......................
..............................
...
...
...
...
...
...
..
...
.................................................................................................................................................................
A
1.2
B
QM1_16
69
?
( A \ B , B \ A , A ∩ B ) ist d.Z. von A ∪ B
....................................................................................................................................................................
...
....
...
...
...
...
................................ ..........................................
.
.
.
.
.
.
....
.
.
.
...
.
.
......... ........ ........ .................................. ........ ........ .............
.
.
.
....
...
.
.
........... ......... ......... ............................................. ......... ........ .............
...
...
.
.... ..... .... ..... ..
. ......
.
.
.
.
.
.
.
.
.
.
..........................
.
.
.
.
.
.
.
.
.. .. .. .. .. .
. .. .. .. .. .
.......................
.... ............................................ ......... ......... .................................... ......... ......... ................................................. ...
...
...
.... ....... ....... ....... .......................................... ....... ....... ....... ....
...
...
........... ....... ....... ....... ...................................... ....... ....... ....... ..........
... ...... ...... ...... ......
...
...
..... ... ... .... ..
......... ...... ...... ....... ..................................... ......... ......... ........ ........
...
...
... ...... ....... ...... ........................................... ...... ....... .........
...
...
. ..... ..... ..... ..
... ...... ..... ...... .......
.
.
.
.
.
.
...
...
.
.
.
.
... ..... ...... ...... ......................... ...... ..... ...... ...
..... ..... .... .... ..... .... .... ..... .... ....
...
...
...... ..... ..... ..... ........... ..... ..... ..... .....
...
...
....... ..... ...... ........................ ..... .............
.............................
.............................
...
...
...
...
...
...
...
...
..................................................................................................................................................................
A
?
B
( A , B \ A ) ist noch eine d.Z. von A ∪ B
.....................................................................................................................................................................
...
...
...
...
...
...
........................ ......................................
.
.
.
.
.
.
....
.
.
...
.
........................................................ ... .. ... ... ...........
.
.
.
.
.
.
....
...
.
....
.... ......... ... ... ... ... .........
.
.
.
.
.
.
...
...
..................................................................... .... .... .... .... .......
..........................
.
....................
.
.
.... ........................................................................................................ .... .... .... .................................................
...
...
............................................................................ ... ... ... ... .... ...
...
...
............................................................................. ... ... ... ... ... ...
...
.
. . ..
.. .
...
...
............................................................................... .... .... .... .... .... ...
...
...
. ... ... ... ... ... ...
...
...
.
.
...
...
.......................................................................... ... .. .. ... ....
.
.
.
.
...
...
.
.
.
............................................................... .. .. .. .. .. ..
.
.....
.
.
.
...
...
.....
.
.
.
.
.
.
............................................................ .... .... .... .... ..........
...
...
.......
.......... .. .. .. ........
.
.
.
.
.
.
...
...
.
..........................
..........................
...
...
...
...
...
..
...................................................................................................................................................................
A
?
−
B
6×ZoZoR aus G ( 10 Personen, davon 5 F(rauen) )
Ω = {A | A ⊆ G, |A| = 6}
Bj : ‚ j gezogene Personen sind F ‘ ( j = 0, . . . 6 )
→
( B0 , . . . , B6 ) ist d.Z. von Ω
4
B0 = B6 = ∅
→
Auch ( B1 , . . . , B5 ) ist d.Z. von Ω
1.2
QM1_16
70
→
Erinnerung : Funktionen
♦ Eine Funktion f : D → W ordnet jedem Element
des Definitionsbereichs D eindeutig ein Element des
Wertebereichs W zu
Statt ‚ Funktion ‘ auch ‚ Abbildung ‘
?
Beispiel : f : R → R mit f (x) = x2
.
......
.........
..
...
...
...
...
...
...
..
...
...
...
...
..
...
...
..
.
.
.
.
...
....
...
...
...
...
...
...
..
...
..
...
.
.
.
.
...
....
...
...
...
...
...
...
...
...
..
...
...
.
...
...
...
...
...
...
...
..
...
...
..
.
.
.
.
...
....
...
...
...
...
...
...
..
...
...
..
.
.
.
.
...
....
...
...
...
...
...
...
..
...
..
...
.
.
.
.
...
....
...
...
...
...
....
....
.....
...
.....
.....
...... .... ..........
................................................................................................................................
.....
f (x)
1
1
x
Kurzschreibweise auch : f : x 7→ x2
−
Voraussetzung : Definitions- und Wertebereich sind klar
‚ 7→ ‘ auch bei konkreten Werten : 2 7→ 22 = 4
4
?
1.2
Genauer Wertebereich nicht so wichtig , solange passend
bei x 7→ x2 Wertebereich auch [ 0, ∞ ) statt R
QM1_16
71
→
W-Maße
♦ Ist Ω 6= ∅ endliche Grundgesamtheit , so heißt eine Funktion
P : P( Ω ) → R
ein W-Maß auf Ω , falls folgende Bedingungen erfüllt sind :
(i)
P(A) ≥ 0
(ii)
P(Ω) = 1
(iii)
für alle A ⊆ Ω
P(A ∪ B) = P(A) + P(B)
falls A ∩ B = ∅
(i) : ‚ Positivität ‘ , (ii) : ‚ Normierung ‘ , (iii) : ‚ Additivität ‘
(i) , (ii) , (iii) : W-Axiome
?
Idealer Würfel , Ω = { 1, 2, 3, 4, 5, 6 }
−
→
?
Durch P(A) := | A | / | Ω | wird ein W-Maß definiert
Axiome nachprüfen !
P( ‚ Gerade Zahl ‘ ) = P({2, 4, 6}) = 3/6 = 1/2
B
Dies W-Maß trifft die Intuition
→
Allgemein bei ‚ gleichwahrscheinlichen Ergebnissen ‘
−
1.2
P(A) := | A | / | Ω | liefert plausibles W-Maß
‚ Gleichverteilung ‘
QM1_16
72
→
Flächenanalogie
Hilfreich : Vorstellung der Ereignisse als Teilflächen einer
Gesamtfläche Ω
....................................................................................................................................................................
...
...
...
...
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
............
.......
.....
.
.
.
.
.
.
.
.
.
....
...
.
.
.
.
.....
....
.... ........
.
.
.
.
.
.
...
...
.
.
...
.
.
...
.
.
.
.
.
.
.....................
.
.
..........................
...
...
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
... ................................
..
.
.
.
.
.
...
...................
...
...
...
....
...
...
...
...
...
....
....
..
...
...
...
...
...
..
...
...
...
...
...
...
...
...
.
.
...
...
.
.
...
...
.
.
.
.
...
.
.
...
...
...
..
..
.
.
...
.....
.....
.
.
...
...
.
.....
..... .........
.
.
.
...
...
..
.......
........
.
.
.
.
.
.
.
.
.
.
.
...
...
.............. ............. .............. .............
...
...
...
...
...
...
...
..
...................................................................................................................................................................
Ω
A
B
W-Maß hat dann die Eigenschaften eines Flächenmaßes
?
3. Axiom :
P(A ∪ B) = P(A) + P(B)
falls A ∩ B = ∅
....................................................................................................................................................................
...
....
..........
........................... .... .........................................
.....
...
...........................
...
...
...
...
...
...
...
...
...
....
...
...
...
....
...
...
...
.
.
.
.
.
...
...
...
.
..........................
.
.
.
................................................
. ......
...
.
.
.
.
.
.
.
.
.
.
.
.... ............................
..
.
.
...
...
...
...
...
...
...
...
..
...
...
...
...
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
...
...
...
.
...
...
...
...
...
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
...
...
.
.
.
.
.
...
.
..........
.......................
.......... ....
...
...
......................................................
............
...
...
...
...
...
..
.................................................................................................................................................................
Ω
A
B
→
W-Maße verhalten sich ähnlich wie Flächenmaße
4
In Mathematik ( Maßtheorie ) einheitliche Behandlung
1.2
QM1_16
73
4 Bemerkungen
4
W-Maß als Funktion passt als Formalisierung zu
‚ Jedes Ereignis hat eine Wahrscheinlichkeit ‘
4
Verzicht auf Definition von ‚ Wahrscheinlichkeit ‘
− Nur Formulierung von Eigenschaften , denen ( hoffentlich )
jeder zustimmen kann ( der an Wn glaubt )
4
Frage ‚ Gibt es Wn ‘ ( Wo ? ) bleibt unberührt
4
Definition ohne quantitative Festlegungen
B
Solche Festlegungen müssen bei Anwendungen gemacht werden
→
W-Modelle für gegebene Bereiche
?
W-Modell für Würfeln : Gleichverteilung
?
Richtig für einen bestimmten konkreten Würfel ?
−
?
Völlige Symmetrie ?
‚ Richtig ‘ ??
4
Unwuchten ?
oder besser : ‚ Angemessen ‘ ?
Gleichverteilungsmodell richtig für idealen Würfel
−
Wo gibt es den ? Im Ideenhimmel ?
−
Richtigkeit hier tautologisch
B ‚ Idealer Würfel ‘ durch Gleichverteilung definiert
1.2
QM1_16
74
→
‚ Statistiker haben die W. von ... zu ... berechnet ‘
4
Suggeriert grobes Missverständnis
B
Statistiker können gar nichts ausrechnen
−
außer für ideale Situationen
−
oder ( konkrete Situationen ) unter Modellannahmen
−
die mehr oder weniger plausibel sind
?
‚ W. für 6 Richtige im Lotto ist 1/13983816 ‘
−
Stimmt für die ideale Lottotrommel ( wo ist die ? )
−
wenn es keine prophetischen Fähigkeiten gibt
4
−
?
Aufgabe der Statistik :
Entscheidung zwischen verschiedenen W-Modellen
Ist dieser Würfel fair oder nicht ?
− Kann das Gleichverteilungsmodell verworfen werden ?
4 Für unendliche Grundgesamtheiten ist Definition des W-Maßes
zu modifizieren
1.2
QM1_16
75
→
Frequentistische W-Interpretation
→
W. ist Grenzwert relativer Häufigkeiten ( r.H. )
?
Frage : W. der 6 beim Würfeln ?
Es wird 180 Mal gewürfelt
Kumulative Bildung der r.H. der 6
Anfang der Daten : 24653 66452 23124 35635
Würfe ] 6en Kumulierte r.H. Dezimal
5
1
1/5
.2
10
3
3/10
.3
3
3/15
.2
15
20
4
4/20
.2
Konvergenz :
1
r.H.
.5
.1
r
r
r r rr
r rrr r rrr rr
r rrr rr rr rrrrrrrrrrrrrrrrrrrr rrrrrrrrrrrrrrrr rrrr rrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr
..........................r......................r
.......................rr
...rr
...rr
....r
r.......r...................rr........rr...r..................................r.......................................................................................................................
rr
1/6 = .1666...
................................................................................................................................................................................................................................................................................................................................................................................
10
1.2
50
100
150
n
QM1_16
76
Konvergenz der r.H. : Empirische Tatsache ?
Konvergenz kann auch in W-Theorie bewiesen werden
→
!
Rechtfertigung der frequentistischen Interpretation !
Genauer hinsehen !
Aussage der W-Theorie etwa :
−
Konvergenz tritt auf mit Wahrscheinlichkeit 1
→
Zirkel !
→
Trotzdem :
−
Intutition von W. als Grenzwert von r.H. ist naheliegend
−
Oft nützlich bei der Plausibilisierung neuer Konzepte
1.2
QM1_16
77
→
W-Räume
♦ Eine Grundgesamtheit Ω mit einem W-Maß P heißt auch
Wahrscheinlichkeitsraum ( W-Raum )
Formale Schreibweise : < Ω , P >
♦ Ist das W-Maß P eines W-Raums < Ω , P > gegeben durch
P(A) =
|A|
,
|Ω|
so heißt < Ω , P > auch Laplaceraum
B
Modell der ‚ Gleichwahrscheinlichkeit ‘ der Ergebnisse
?
Idealer Würfel
?
‚ Zufälliges ‘ Stichprobenziehen
4
1.2
Annahme eines Laplaceraums ist im Einzelfall zu prüfen
QM1_16
78
→
•
Folgerungen aus den Axiomen
Ist (A1 , . . . An ) d.Z. von A so gilt :
P(A) =
n
X
P(Ai )
i=1
o
n
Zunächst n = 2
A = A1 ∪ A2
mit
A1 ∩ A2 = ∅
Axiom (iii) : P(A) = P(A1 ∪ A2 ) = P(A1 ) + P(A2 )
Nun : n = 3 , (A1 , A2 , A3 ) ist d.Z. von A (= A1 ∪ A2 ∪ A3 )
.....................................................................................................................................................................
...
...........
....
........................... .... .........................................
.....
...
...
...........................
...
...
...
...
...
..
.
.
....
...
....
.
.
...
.. ....
.
...
...
...
.
...
.. ....
.
.
.
...
.
.
...
.
.
...
...........................
.
. .........
.
.
.
.
.
.
.
.
.
... ...............................
...................... ............
...
..
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
...
...
..
....
.
...
....
.
...
...
..
.
.
...
....
...
.
.
...
...
..
.
...
...
.
...
...
...
..
.
...
...
.
...
.
...
...
..
.
.
...
...
.
...
.
...
...
...
..
.
...
...
...
.
.
.
...
...
...
..
.
...
...
...
.
...
....
...
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
...
.
.
.
.
.
.
.
.
...
.
.
..........
.
...
.........................
.
.
.
.
...
...
.
.................................................
.......... ..
...
.
.
.
...
...
...
...
...
...
...
..
..
...................................................................................................................................................................
...
...
..
Ω
A1
A3
A2
((A1 ∪ A2 ), A3 ) ist d.Z. von A
P(A) = P(A1 ∪ A2 ) + P(A3 )
( hier : ‚ n = 2 ‘ )
(A1 , A2 ) ist d.Z. von A1 ∪ A2
P(A1 ∪ A2 ) = P(A1 ) + P(A2 )
→
( schon gezeigt )
P(A) = P(A1 ∪ A2 ) + P(A3 ) = P(A1 ) + P(A2 ) + P(A3 )
Analog : Von n = 3 zu n = 4 zu n = 5 . . .
1.2
QM1_16
79
•
P(A) + P(Ac ) = 1
o
n
(A, Ac ) ist d.Z. von Ω
....................................................................................................................................................................................................................................
....................................................................................................................
.
.............................................................................................................................................
.......................................... .... .... .... .... ...................................................................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................................... .. .. ... .. ... .. .. .. ..................................................
. ............. .. .. .. .. .. .. .. ..
...
.
....................... .... .... .... .... .... .... .... .... .... .........................................................
...................... .... ... .... ... ... ... ... ... ... ...................................................
.......................... ... ... .... ... .... ... ... ... ..................................................
.......................... ... ... ... ... ... ... ... ......................................................
............................... .... ... ... ... ... ............................................................
.................................................................................................................................................................................................................................
.....................................................................................................................
.....................................................................................................................
.................................................................................................................
Ω
A
4
Wn von Gegenereignissen addieren sich zu 1
•
P(A) ≤ 1 für alle A
o
n
P(A) + P(Ac ) = 1
und
•
P(Ac ) = 1 − P(A)
•
P(∅) = 0
o
n
∅ = Ωc
!
−
1.2
P(Ac ) ≥ 0 ( Ax. (i) ) Umkehrung muss nicht gelten :
Aus
P(A) = 0
folgt nicht
A = ∅
QM1_16
80
•
Aus A ⊆ B folgt P(A) ≤ P(B)
B
A
o
n
....................................................................................................................................................................
...
....
...
...
...
...
...........................
.
.
.
.
.
....
.
.
...
.
......
.....
.
.
.
.
.
....
...
.
.....
....
.
.
...
...
.
...
...
..........................
...
...
.
...
.... ................................ .................
...
...
.
.
.
.
.
.
.
...
...
.
...
....
..
...
...
...
...
.... ....
...
..
... ...
...
...
.
..
..
... ...
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
......... ... ...
..
..
.
.
................................
...
.
.
.
.
.
... ......
.
.
.
..... .......................
....
...
.
...
......
.
.
.
...
...
.
..
.......
..................................
...
...
...
...
...
...
...
...
..................................................................................................................................................................
Ω
(A, B \ A) ist d.Z. von B
.....................................................................................................................................................................
...
...
...
...
....
...
.......................
.
.
.
.
.
.
.
.
.
...
...
...................................................
.
.
.
.
.
.
...
...
.....
....
.
.
.
.
...
...
...............................................................
.
...
...
.....................................................................
.
...
...
.......
...
...
...................................... ................................................
...
...
................. ... ... ... ...................................
... ...... .. .. .. .. ...
.
...
...
................ .. ... .. ... ............................
...
...
.
... ..... ... ... ... ... ...
.
.
...
...
.............. ... .. ... .. ..........................
.
.
.
.
...
...
................... .. .. .............................
.
...
...
..... ........................
......................................................
...
...
.......
.
.
.
.
.
.
...
...
.
...........................
...
...
...
...
...
..
...................................................................................................................................................................
Ω
P(A) + P(B \ A) = P(B)
→
1.2
Wegen P(B \ A) ≥ 0 : P(A) ≤ P(B)
QM1_16
81
•
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
....................................................................................................................................................................
...
...
...
...
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.............
.......
......
.
.
.
.
.
.
.
.
.
.
.
....
...
.
.....
....
.... ........
.
.
.
.
.
.
...
...
.
.
...
.
.
...
.
.
.
.
.
.
.
.
.
.....................
..........................
...
...
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
... .................................
..
.
.
.
...
..................
.
.
.
...
...
...
....
...
...
...
...
...
....
....
..
...
...
...
...
..
...
...
...
...
...
...
...
...
...
.
.
.
.
...
...
.
.
...
...
.
.
.
.
...
...
.
...
...
..
.
...
...
.
.....
..... ......
..
.
.
.....
..... ......
.
...
...
.
.......
.......
...
.
.
.
.
.
.
.
.
...
...
.
.
.............. .............. .............. ..............
...
...
...
...
...
...
...
..
.....................................................................................................................................................................
B
A
o
n
Zerlege geeignet !
(A \ B, A ∩ B) ist d.Z. von A
(B \ A, A ∩ B) ist d.Z. von B
(A \ B, B \ A, A ∩ B) ist d.Z. von A ∪ B
→
P(A ∪ B) = P(A \ B) + P(B \ A) + P(A ∩ B)
= P(A \ B) + P(A ∩ B) + P(B \ A) + P(A ∩ B) − P(A ∩ B)
=
P(A)
+
P(B)
−
P(A ∩ B)
•
P(A ∪ B) ≤ P(A) + P(B)
•
P(A1 ∪ A2 ∪ . . . ∪ An ) ≤ P(A1 ) + P(A2 ) + . . . + P(An )
o
n
Induktiv , nächster Schritt ( 2 → 3 ) beispielsweise
P(A1 ∪ A2 ∪ A3 ) = P((A1 ∪ A2 ) ∪ A3 )
≤ P(A1 ∪ A2 ) + P(A3 )
≤ P(A1 ) + P(A2 ) + P(A3 )
1.2
QM1_16
82
→
?
W-Funktionen
Wie gibt man ein W-Maß an ?
Eine Möglichkeit : Auflistung der Werte :
−
→
?
A 7→ P(A)
für alle Ereignisse A
Aufwändig und umständlich !
Beim Würfel : 26 = 64 Einzelangaben
Zur Rekonstruktion aller Wn :
−
Kenntnis der Wn der Elementarereignisse genügt :
Ist A = { ω1 , ω2 , . . . , ωk } , so gilt :
( {ω1 } , {ω2 } , . . . , {ωk } ) ist d.Z. von A
→
P(A) = P({ω1 }) + P({ω2 }) + . . . + P({ωk })
→
Zusammenfassung dieser Wn aller Elementarereignisse
1.2
QM1_16
83
→
Zusammenfassung der Wn aller Elementarereignisse :
♦ Ist < Ω , P > (endlicher) W-Raum , so heißt die Funktion
f : Ω → R mit
f ( ω) := P({ω})
für alle ω ∈ Ω
auch die zu P gehörende Wahrscheinlichkeits-Funktion
Abkürzung für ‚ Wahrscheinlichkeitsfunktion ‘ : W-Funktion
•
Ist f die zu P gehörende W-Funktion , so gilt für alle A ⊆ Ω :
X
P(A) =
f (ω)
ω∈A
o
n
X
f (ω) =
ω∈A
→
−
X
P({ω}) = P(A)
ω∈A
Angabe eines W-Maßes auf Ω mit | Ω | = n :
mit Hilfe der W-Funktion f durch n Einzelangaben f (ω)
Zur Vollständigkeit :
X
f (ω) = 0
( ‚ leere Summe ‘ )
ω∈∅
1.2
QM1_16
84
?
?
→
2 ‚ reale ‘ Würfel
−
36 Angaben
−
statt 236 = 68 719 476 736
Ist < Ω , P > Laplaceraum , so ist f ≡
1
|Ω|
( ‚ konstant ‘ )
Eigenschaften von W-Funktionen
• Ist f W-Funktion zum W-Maß P auf Ω , so gilt :
(i)
(ii)
f (ω) ≥ 0
für alle ω ∈ Ω
X
f (ω) = 1
ω∈Ω
o
n (i) : f (ω) = P({ω}) ≥ 0
(ii) :
X
f (ω) = P(Ω) = 1
ω∈Ω
4 Die beiden Eigenschaften charakterisieren W-Funktionen vollständig
→
1.2
Konstruktion eines W-Maßes aus der erhofften W-Funktion
QM1_16
85
• Ist f : Ω → R Funktion auf endlichem Ω mit
(i)
(ii)
f (ω) ≥ 0
für alle ω ∈ Ω
X
f (ω) = 1 ,
ω∈Ω
so wird durch die Vorschrift
X
P(A) :=
f (ω)
für alle A ⊆ Ω
ω∈A
ein W-Maß P auf Ω definiert, dessen W-Funktion f ist
o
n Zeige : a) P ist W-Maß ( Axiome nachprüfen )
b) W-Funktion von P ist dann f
?
−
?
( klar )
Gegeben : 55 Studierende ( Ω ) , einmal zufällig Ziehen
Aber : 10 kommen nur jedes zweite Mal
Geeignetes W-Maß ?
Konstruktion über die W-Funktion f
W-Funktion für regelmäßigen Teilnehmer : x
W-Funktion für unregelmäßigen Teilnehmer dann : x/2
Wegen (ii) muss gelten
X
x
1 =
f (ω) = 45 · x + 10 ·
2
ω∈Ω
Also 50 x = 1
1.2
oder
x = 1/50
QM1_16
86
→
Häufigkeiten und Wn
→
Zusammenhang für motivierende Argumentationen ( vage )
Grundlage : Frequentistische Intuition
?
] 6en bei 600-mal Würfeln ?
♣
Ein Ereignis A hat W. p
−
?
Der Versuch wird sehr oft durchgeführt (
N Mal )
Wie oft tritt A ein ? ( ungefähr )
] Eintreten von A : n
r.H. also : n/N
Frequentistische Interpretation →
→
n ≈ Np
? ] 6en bei 600-mal Würfeln : ≈ 600 ·
1.2
n/N ≈ p
1
= 100
6
QM1_16
87
→
Bedingte Wahrscheinlichkeiten
?
W. von positiver Diagnose bei Krankheit
?
W. von Krankheit bei positiver Diagnose
?
2 Würfel , A : ‚ Summe > 7 ‘ , B : ‚ 1. Würfel : 3 ‘
15
1
,
P(B) = ,
36
6
W. von A ‚ unter B ‘ ?
P(A) =
?
P(A ∩ B) =
2
36
Allgemein : Gegeben Ereignisse A , B mit P(B) > 0
?
W. von A ‚ unter B ‘ ?
?
Was soll das überhaupt heißen ?
Motivierung der Definition (!) mit frequentistischer Intuition
Führe Versuch oft durch ( N -mal )
Betrachte nur die Ergebnisse , bei denen B eintritt
Wie groß ist davon die r.H. von A ?
→
1.2
Diese r.H. sollte etwa die ‚ bedingte W. ‘ sein
QM1_16
88
Versuch wird N -mal durchgeführt
Auftreten von B : ≈ N · P(B) Mal
Darunter : Auftreten von A : ≈ N · P(A ∩ B) Mal
→
?
R.H. : ≈
P(A ∩ B)
N · P(A ∩ B)
=
N · P(B)
P(B)
Würfelbeispiel : 36000-mal Würfeln
Eintreten von B ( ‚ 1. Würfel : 3 ‘ ) : etwa
36000 · P(B) = 36000 ·
1
= 6000 Mal
6
Dazu Eintreten von A ( ‚ Summe > 7 ‘ ) : etwa
36000 · P(A ∩ B) = 36000 ·
→
1.2
r.H. etwa
1
2000
=
6000
3
2
= 2000 Mal
36
P(A ∩ B)
=
P(B)
QM1_16
89
♦ Sind A und B Ereignisse mit P(B) > 0 , so heißt
P(A | B) :=
P(A ∩ B)
P(B)
auch bedingte Wahrscheinlichkeit von A unter B
4
Definition in Harmonie mit frequentistischer Interpretation
B
‚ Bedingtheit ‘ hat allgemein nichts zu tun
−
mit zeitlicher Reihenfolge
−
mit Kausalität schon gar nicht
4
?
In speziellen Fällen jedoch oft
2 Würfel , A : ‚ Summe > 7 ‘ , B : ‚ 1. Würfel : 3 ‘
P(A) =
→
15
,
36
P(B) =
1
,
6
P(A | B) =
P(A ∩ B) =
2
36
2/36
1
=
1/6
3
4
P(A) ‚ ändert sich bei Eintreten von B ‘
→
Es besteht eine Art ‚ Abhängigkeit ‘ zwischen A und B
1.2
QM1_16
90
• Ist P(B) > 0 , so gilt :
(i) P(A | B) ≥ 0 für alle A ⊆ Ω
(ii) P(Ω | B) = 1
(iii) P(A1 ∪ A2 | B) = P(A1 | B) + P(A2 | B) für A1 ∩ A2 = ∅
4
Kurz : P( · | B) ist ein W-Maß auf Ω
P( · | B) ist Kurzschreibweise für : A 7→ P(A | B)
o
n (i) , (ii) : klar
(iii) : Gilt A1 ∩ A2 = ∅ , so auch (A1 ∩ B) ∩ (A2 ∩ B) = ∅
ferner (immer) (A1 ∪ A2 ) ∩ B = (A1 ∩ B) ∪ (A2 ∩ B)
.........................................................................................................................................................................................................................
...
...
...
...
.
...
.
................ ...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.......
.......
.................
..
......
.
......
.
.
.........................
.
.
.
.
...
...
.....
.....
........
....
.
.
.
.
.
.
...
...
.
.
..
.
.
.
... .................................................................................................................................................................................... .....
...
.
.
...
.
.
.
... ... ...
...
.
...
..
...
..
.
... ... ...
...
.
.
...
...
..
...
.
... ... ....
...
.
.
.
.
..
.
...
.
... ... ...
...
.
...
.
...
..
..
.
... ... ...
... ...............
...
.
.
...
.
.
.
.
...
.
.
.
.
.
.
.
.
.
... ... ....
.
.
.
...
.
.............. ....
..
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
... ...
.
.
.
.
... ...
...
.
..
...
.
.
... ...
....
.
.
.
.
.....
.....
..
..
..
.
.
.
.
.
.
.
.
......
.
... ...
.
.
.
.
.
...... ..
....
.......
.....
.........
. . ....
....
..................................
........
......................................
...
........................
.... ............................................................................................................................................
...
...
..
..........................................................................................................................................................................................................................
Ω
A1
A2
B
→
P(A1 ∪ A2 | B) =
P((A1 ∪ A2 ) ∩ B)
P(B)
=
P(A1 ∩ B) + P(A2 ∩ B)
P(B)
=
P(A1 ∩ B) P(A2 ∩ B)
+
P(B)
P(B)
= P(A1 | B) + P(A2 | B)
1.2
QM1_16
91
P( Ac | B) = 1 − P(A | B)
•
o
n
P( · | B) ist W-Maß
•
etc. etc.
P(A ∩ B) = P(A | B) · P(B)
• Ist ( B1 , . . . , BJ ) d.Z. von Ω mit P(Bj ) > 0 für alle j
und A ⊆ Ω , so gilt
P(A) =
J
X
P(A | Bj ) P(Bj )
j=1
„ Satz von der totalen Wahrscheinlichkeit “
o
n ( A ∩ B1 , . . . , A ∩ BJ ) ist d.Z. von A :
.............................................................................................................................................................................................
......
..
...
.......
......
...
.......
......
.....
.......
...
......
.......
.
.
.
......
.
.
.
....
...
....
......
.
.
.
.
.
.
.
...
...
......
.
.................
......
.
.
.
...
...
.....................
.
......
.
.
.
...
...
......................
...... ...
.....................
...
........
...
.....................
..
...
.
...
.
...
..
.
.
...
....
...
................. ....
...
...
...
.............
..... ...
... ..........................
...
...
......
...
.....
...........
...
.....
...
...
...
.....
.
.
...
...
.....
...
.....
...
...
...
.....
.
...
...
...
.....
...
...
...
.....
.....
...
...
...
.....
.
...
..
.
...................................................................................................................................................................................................
Ω
A
−→
...........................................................................................................................................................................................
.....
..
...
.....
.....
...
......
.....
......
.....
...
.....
......
.
.
.
.....
.
.
....
...
....
.....
.
.
.
.
.
.
...
.
.....
....................
................
.
.....
.
.......................
...
.
.................
.....
..................
.
...
..
..................
.....
..... .
.
.
.
.
.
.
.
.
.
.
...
................. ....
.....
..
......
.
...
..
.
.
...
....
..
.
.........
...
...
..
........... ....... ...
... .....................
...
.....
..
....
..........
...
..
....
...
...
..
....
...
...
....
..
....
...
...
..
....
...
...
.
....
..
...
...
....
..
....
...
...
..
....
...
..
.
................................................................................................................................................................................................
d.Z. von Ω in die Bj
→
P(A) =
J
X
j=1
4
1.2
P(A ∩ Bj ) =
..........................................
.
.
.
. ... . ..
.......................... ....
... ..... ..
..... ..... ...
.......................
Ω
d.Z. von A in die A ∩ Bj
J
X
P(A | Bj ) P(Bj )
j=1
P(A) ist gewichtetes Mittel der bedingten Wn P(A | Bj )
QM1_16
92
?
2 Würfel
−
Bj : ‚ 1. Würfel zeigt j ‘ ( j = 1 , . . . , 6 )
−
A : ‚ Summe ist ≥ 10 ‘
− 1. Würfel ‚ gezinkt ‘ : P(B1 ) = . . . = P(B5 ) = .1 , P(B6 ) = .5
?
P(A) = ?
(B1 , . . . , B6 ) ist d.Z. von Ω = {1, . . . , 6}2
P(A | B1 ) = . . . = P(A | B3 ) = 0
P(A | B4 ) =
P(A) =
6
X
1
,
6
P(A | B5 ) =
2
,
6
P(A | B6 ) =
3
6
P(A | Bj ) P(Bj )
j=1
= 0 · (.1) + 0 · (.1) + 0 · (.1) +
=
4
1.2
1
2
3
· (.1) + · (.1) + · (.5)
6
6
6
1.8
= .3
6
Vgl. : 6/36 = 1/6 bei fairem 1. Würfel
QM1_16
93
• Ist ( B1 , . . . , BJ ) d.Z. von Ω mit P(Bj ) > 0 für alle j
und A ⊆ Ω mit P(A) > 0 , so gilt für alle k = 1 , . . . , J
P(Bk | A) =
P(A | Bk ) P(Bk )
J
X
P(A | Bj ) P(Bj )
j=1
„ Satz von Bayes “
P(A | Bk ) P(Bk )
P(Bk ∩ A)
P(Bk | A) =
= J
P(A)
X
P(A | Bj ) P(Bj )
o
n
j=1
4
Nenner ist P(A) ( totale W. )
4
Änderung der ‚ a-priori-Wahrscheinlichkeiten ‘ P(Bk )
−
‚ unter Zusatzinformation ‘ A
−
zu ‚ a-posteriori-Wahrscheinlichkeiten ‘ P(Bk | A)
4
Interessante Frage in der Kognitionspsychologie
?
1.2
Verhalten sich Organismen gemäß Bayesformel ?
QM1_16
94
?
2 Würfel
−
Bj : ‚ 1. Würfel zeigt j ‘ ( j = 1 , . . . , 6 )
−
A : ‚ Summe ist ≥ 10 ‘
− 1. Würfel ‚ gezinkt ‘ : P(B1 ) = . . . = P(B5 ) = .1 , P(B6 ) = .5
?
P(Bk | A) = ?
(B1 , . . . , B6 ) ist d.Z. von Ω = {1, . . . , 6}2
P(A | B1 ) = . . . = P(A | B3 ) = 0
1
,
6
P(A | B4 ) =
P(A | B5 ) =
2
,
6
P(A | B6 ) =
3
6
P(A) = .3
?
P(B2 | A) =
0
= 0
.3
?
P(B5 | A) =
1
(2/6) (.1)
=
.3
9
?
P(B6 | A) =
(3/6) (.5)
5
=
.3
6
B
A-posteriori-Wn P(Bk | A) : 0 ,
4
Summe ist 1
B
Vgl. mit a-priori-Wn !
4
A-posteriori-Wn bei fairem erstem Würfel :
−
1.2
P(Bk | A) :
0,
0,
0,
0,
1
,
6
0,
2
,
6
1
,
18
2
,
18
15
18
3
6
QM1_16
95
→
Unabhängigkeit
→
Motivierung der Definition
?
Test auf Krankheit
Versuch :
−
Zufälliges Ziehen eines Probanden aus Gesamtpopulation
−
A : Diagnose positiv , B : Proband krank
→
Erwartung an ‚ guten ‘ Test :
−
Bei Kranken erhöht sich die W. einer positiven Diagnose
−
im Vergleich zur Gesamtpopulation
Formal : P(A | B) > P(A)
→
Dann besteht ‚ eine Art Abhängigkeit ‘
( A von B )
Falls P(A | B) = P(A) :
→
Test ganz unbrauchbar
→
A ‚ hängt überhaupt nicht von B ab ‘
→
Nahliegende Sprechweise :
−
1.2
A ist von B unabhängig , falls P(A | B) = P(A)
QM1_16
96
‚ Intuitive ‘ Bedingung für ‚ Unabhängigkeit ‘ ( A von B ) :
P(A) = P(A | B) =
P(A ∩ B)
P(B)
Umformung :
P(A ∩ B) = P(A) · P(B)
♦ Zwei Ereignisse A und B heißen unabhängig , falls
P(A ∩ B) = P(A) · P(B)
gilt
•
Sind A und B unabhängig mit P(B) > 0 , so gilt
P(A) = P(A | B)
o
n
P(A | B) =
P(A) P(B)
P(A ∩ B)
=
= P(A)
P(B)
P(B)
4
( Technische ) Defintion also in Einklang mit Motivation
4
Unabhängigkeit ist ‚ symmetrisch ‘
!
Nicht Unabhängigkeit und Disjunktheit verwechseln !
!
Keine ( allgemein ) falschen Assoziationen !
1.2
( Kausalität etc. )
QM1_16
97
?
2 faire Würfel , A : ‚ 1. Würfel : 3 ‘ , B : ‚ Summe = 7 ‘
?
A , B unabhängig ?
P(A) =
1
,
6
P(B) =
P(A) · P(B) =
→
1
,
6
P(A ∩ B) =
1
36
1 1
1
· =
= P(A ∩ B)
6 6
36
A und B sind unabhängig
?
2 faire Würfel , A : ‚ 1. Würfel : 3 ‘ , B : ‚ Summe = 8 ‘
?
A , B unabhängig ?
P(A) =
1
,
6
P(B) =
P(A) · P(B) =
5
,
36
1
36
1 5
5
1
·
=
6=
= P(A ∩ B)
6 36
216
36
→
A und B sind nicht unabhängig
4
Hier : P(A | B) =
1.2
P(A ∩ B) =
1
1
6=
= P(A)
5
6
QM1_16
98
?
2 faire Würfel , A : ‚ 1. Würfel : < 5 ‘ , B : ‚ 2. Würfel > 3 ‘
?
A , B unabhängig ?
P(A) =
4
,
6
P(B) =
P(A) · P(B) =
3
,
6
A und B sind unabhängig
4
Hier Sonderfall :
?
−
1.2
12
36
12
4 3
· =
= P(A ∩ B)
6 6
36
→
−
P(A ∩ B) =
A bezieht sich auf 1. Würfel , B auf 2. Würfel
Sind derartige Ereignisse immer unabhängig ?
Vermutung : Ja
QM1_16
99
•
Sind A und B unabhängig , so auch A und B c
o
n
P(A ∩ B c ) = ?
....................................................................................................................................................................
...
...
...
...
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.......
....... .... .... ... .......................
.
.
.
.
.
.
.
....
...
.
.....
...... ... ... ... ... ........ ........
.
.
.
.
...
...
.
.
...
. .. .. .. .. .. ......................
.
.
.
.
.
.
.
.....................
.
.
.
.
..........................
.
...
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ...................................... .... .... ... ....................................
..
.
.
.
.
....................
...
...
... .... ... ... ... ... ...................................
...
...
...
...
.... .. ... ... ... ... ....
.
..
... ... ... .. .. ... .....................................
...
...
.
..
... ... ... ... ... ... ...................................
...
...
.
.
.
... ... .. .. .. .. ...
.
.
.
.
...
...
.
..... ... ... ... ... ..................................
.
.
...
...
... .. .. .. .. .. .......................
..
.
...
...
.
.
........ ... ... ... ... ....
...
.
..... .. .. .. .. ...................
.
.
...
...
.
........ .. .. .. .. .........
...
.
.
.
.
.
...
...
.
.
.
............... ............... .............. .............
...
...
...
...
...
...
...
..
.....................................................................................................................................................................
B
A
( A ∩ B , A ∩ B c ) ist d.Z. von A
P(A) = P(A ∩ B) + P(A ∩ B c )
→
P(A ∩ B c ) = P(A) − P(A ∩ B)
= P(A) − P(A) · P(B)
= P(A) (1 − P(B))
= P(A) · P(B c )
•
Sind A , B unabhängig , so auch Ac , B , ebenso Ac , B c
o
n
A , B vertauschen bzw. iterieren
1.2
QM1_16
100
•
Sind A und B unabhängig , P(B) > 0 , P(B c ) > 0 , so gilt
P(A | B) = P(A) = P(A | B c )
4
?
Dies zeigt nochmal die Angemessenheit der Begriffsbildung
Diagnosebeispiel : A : Diagnose positiv , B : Proband krank
Sind A , B unabhängig , so
P(A | B) = P(A | B c )
→
Test dann in der Tat unbrauchbar
→
Unabhängigkeit von mehr als 2 Ereignissen
♦ A , B , C heißen unabhängig , falls sie paarweise unabhängig
sind und zusätzlich
P( A ∩ B ∩ C ) = P(A) · P(B) · P(C)
gilt
4 Unabhängigkeit von 3 Ereignissen ist also mehr als
paarweise Unabhängigkeit und auch mehr als Gültigkeit von
P( A ∩ B ∩ C ) = P(A) · P(B) · P(C)
4
−
1.2
Analog ( immer komplizierter ) :
Unabhängigkeit von 4 , 5 , 6 , . . . Ereignissen
QM1_16
101
→
Zufallsvariable
→
Oft interessiert bei einem Versuch nicht das genaue Ergebnis
−
?
→
−
?
sondern nur ein bestimmter ‚ Aspekt ‘
2 Würfel , interessant ist vielleicht nur die Augensumme
‚ Erfassen ‘ eines solchen ‚ Aspektes ‘
durch eine geeignete Abbildung
2 Würfel , es interessiert die Augensumme
Geeignete Abbildung :
X : { 1, 2, 3, 4, 5, 6 }2 → { 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 }
X((w1 , w2 )) := w1 + w2
?
X((3, 5)) = 8
Verkürzende Schreibweise : X(3, 5) statt X((3, 5))
−
1.2
Streng genommen unkorrekt , aber praktisch
QM1_16
102
?
2 Würfel , interessant ist jetzt der 1. Würfel
Geeignete Abbildung :
X1 : { 1, 2, 3, 4, 5, 6 }2 → { 1, 2, 3, 4, 5, 6 }
X1 (w1 , w2 ) := w1
?
Oder : interessant ist der 2. Würfel
Geeignete Abbildung :
X2 : { 1, 2, 3, 4, 5, 6 }2 → { 1, 2, 3, 4, 5, 6 }
X2 (w1 , w2 ) := w2
4
−
Für viele Zwecke praktischer :
Als Wertebereich von X1 , X2 , X gleich R nehmen
Hier gilt übrigens : X = X1 + X2
B
Summe von Abbildungen ist wieder Abbildung
Formale Definition :
♦ Sind X1 und X2 Abbildungen auf Ω mit Werten in den
reellen Zahlen , so ist X1 + X2 die Abbildung auf Ω , die
gegeben ist durch
(X1 + X2 )(ω) := X1 (ω) + X2 (ω)
4
1.2
Analog : Differenz , Produkt , X12 , etc. etc.
QM1_16
103
?
−
4
−
Population Ω von Männern und Frauen
Zufälliges Ziehen einer Person
Elementarbaustein des Stichprobenziehens
Interessant ist vielleicht die Intelligenz der gezogenen Person
Geeignete Abbildung :
−
?
−
Person 7→ IQ
X( Julius ) = 117
Interessant ist jetzt das Geschlecht der gezogenen Person
Geeignete Abbildung :
−
?
B
X : Ω → R
Y : Ω → { m, w }
Person 7→ Geschlecht
Y ( Petra ) = w
Vorteil derartiger Abbildungen
−
Erfassung der relevanten Information
−
bei Ignorierung der irrelevanten
1.2
QM1_16
104
→
Urbild
♦ Ist X : Ω → Ω0 eine Abbildung und A ⊆ Ω0 , so heißt die
Menge
X −1 (A) := { ω ∈ Ω | X(ω) ∈ A }
das Urbild von A unter X
?
2 Würfel , X : {1, 2, 3, 4, 5, 6}2 → R : Augensumme
?
A = { 10, 11, 12 }
‚ Augensumme ≥ 10 ‘
X −1 (A) gibt Antwort auf die Frage :
−
Welche Ergebnisse führen zu Augensummen ≥ 10 ?
X −1 (A) = { (4, 6) , (5, 5) , (5, 6) , (6, 4) , (6, 5) , (6, 6) }
?
−
?
Zufälliges Ziehen einer Person aus Population Ω
X : Intelligenz
A = (100, ∞)
‚ überdurchschnittlich ‘
X −1 (A) gibt Antwort auf die Frage :
−
Welche Personen sind überdurchschnittlich intelligent ?
X −1 (A) vielleicht : { Julius, Olga, Maria, Fritz, . . . }
1.2
QM1_16
105
?
2 faire Würfel , X : {1, 2, 3, 4, 5, 6}2 → R : Augensumme
?
A = { 10, 11, 12 }
?
Wie wahrscheinlich ist eine Augensumme in A ? ( also ≥ 10 )
→
‚ Augensumme ≥ 10 ‘
Lösungsweg :
Umformulierung : Welche Ergebnisse führen zu Summe ≥ 10 ?
Antwort : (4, 6) , (5, 5) , (5, 6) , (6, 4) , (6, 5) , (6, 6)
Also die Elemente von X −1 (A)
Es sind also folgende Ereignisse gleich :
−
‚ Augensumme X liegt in A ‘
−
X −1 (A)
Daher ist die W. einer Augensumme in A gleich P(X −1 (A))
1
6
=
36
6
→
Lösung also : Die gesuchte W. ist P(X −1 (A)) =
B
Entscheidend : das interessierende Ereignis ist X −1 (A)
−
1.2
Davon ist die W. zu bestimmen
P(X −1 (A))
QM1_16
106
♦ Ist < Ω, P > ( endlicher ) W-Raum und X : Ω → Ω0 eine
Funktion mit Werten in einer Menge Ω0 , so heißt X auch
Zufallsvariable ( auf Ω )
Abkürzung : Zva
4
Zvan ‚ erfassen ‘ ‚ relevante Aspekte ‘ eines Zufallsergebnisses
B
Zufällig ist das Ergebnis ω , X( ω ) dann aber nicht mehr
→
Wn von Ereignissen , die sich auf eine Zva beziehen ?
Form solcher Ereignisse genauer :
Gegeben ist ein A ⊆ Ω0
→
Ereignis dann : Der Wert von X liegt in A
Bezeichnung für dieses Ereignis : ‚ X ∈ A ‘
Bezeichnung der Wahrscheinlichkeit : P(X ∈ A)
P(X ∈ A) = P(X −1 (A))
•
Weitere Schreibweisen :
‚ X ≥ 10 ‘ : Ereignis , dass X mindestens 10 ist
P(X ≥ 10) : W. davon
→
1.2
Etc. etc.
QM1_16
107
→
Verteilung einer Zva
• Ist < Ω , P > (endlicher) W-Raum und X : Ω → Ω0 eine
Zva mit Werten in einer endlichen Menge Ω0 , so ist die durch
die Vorschrift
PX (A) := P(X −1 (A))
für A ⊆ Ω0
auf P(Ω0 ) definierte Funktion PX ein W-Maß auf Ω0
o
n
Nachprüfen der Axiome
B
PX (A) ist die W., dass X einen Wert in A annimmt
♦ Das W-Maß PX heißt auch Bildmaß von P ( unter X ) oder
auch Verteilung von X
Charakterisierung wie üblich durch die W-Funktion
♦ Die zu PX gehörende W-Funktion heißt auch W-Funktion von
X
1.2
Bezeichnung meist : fX
QM1_16
108
→
Eigenschaften der W-Funktion von X
4
Ω0 erstmal immer endlich
• Ist < Ω , P > (endlicher) W-Raum mit W-Funktion f und
X : Ω → Ω0 Zva mit W-Funktion fX : Ω0 → R , so gilt
X
fX (x) =
f (ω)
ω∈Ω
X(ω)=x
für alle x ∈ Ω0
o
n fX (x) = PX ({x}) = P(X −1 ({x}))
und
X −1 ({x}) = { ω ∈ Ω | X(ω) ∈ {x}} = { ω ∈ Ω | X(ω) = x} • Ist fX die W-Funktion einer Zva X : Ω → Ω0 , so gilt für
alle A ⊆ Ω0 die Beziehung
X
PX (A) =
fX (x)
x∈A
o
n
1.2
fX ist W-Funktion
QM1_16
109
?
−
Gegeben : Population Ω = { a, b, c, d, e, f, g, h }
Interessant : Verteilung der Zva X : Augenfarbe
Ω0 = { b, hb, db, hg, dg }
− braun , hell/dunkel-blau/grün
Ungleiche Ziehungswahrscheinlichkeiten
−
W-Maß P auf Ω gegeben durch W-Funktion f
ω f (ω) X(ω)
a .20
hb
b .15
dg
c .05
b
hg
d .10
e .15
b
f .10
db
g .10
hg
dg
h .15
→
Bestimme PX über fX !
fX (b) =
X
f (ω) = f (c) + f (e) = .05 + .15 = .20
ω∈Ω
X(ω)=b
fX (hb) =
X
f (ω) = f (a) = .20
ω∈Ω
X(ω)=hb
fX (db) = f (f ) = .10
fX (hg) = f (d) + f (g) = .10 + .10 = .20
fX (dg) = f (b) + f (h) = .15 + .15 = .30
1.2
QM1_16
110
Zusammenfassung der Werte von fX
x fX (x)
b
.20
hb .20
db .10
hg .20
dg .30
Veranschaulichung der W-Funktion fX
fX (x)
0.3
0.2
0.1
?
H := { hb, hg }
PX (H) =
X
.......
..........
...
....
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
r
r
r
...
...
..
...
...
...
...
...
...
....
..
..
...
...
..
...
...
...
...
...
...
....
..
..
b
hb
r
r
....
...
..
...
...
..
...
...
..
...
...
...
...
...
...
....
..
..
..
...
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
db hg dg
x
‚ Helle Augenfarbe ‘
fX (x) = fX (hb) + fX (hg) = .20 + .20 = .40
x∈H
4
Natürlich gleiches Resultat mit PX (H) = P(X −1 (H)) :
X −1 (H) = { a, d, g }
→
1.2
P({ a, d, g }) = f (a) + f (d) + f (g) = .20 + .10 + .10 = .40
QM1_16
111
?
Verteilung der Augensumme von 2 fairen Würfeln
Ω = { 1, 2, 3, 4, 5, 6 }2
P : Gleichverteilung , also f (ω) = 1/36 für alle ω
Zva : X : Ω → Ω0 = { 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 }
−
X(w1 , w2 ) = w1 + w2
→
Bestimme PX über fX
?
fX ( 4 ) = f (1, 3) + f (2, 2) + f (3, 1) =
→
1
1
3
1
+
+
=
36 36 36
36
Insgesamt :
x
2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
fX (x)
36 36 36 36 36 36 36 36 36 36 36
→
Veranschaulichung :
.
........
..........
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
...
...
.
...
..
...
...
.
...
..
...
...
.
...
..
.
...
...
.
.
..
..
...
...
.
.
..
..
.
...
...
.
.
...
.
..
..
..
...
...
.
.
...
.
..
..
..
...
...
.
.
...
.
.
..
..
..
...
.
.
.
...
.
..
..
..
..
...
.
...
.
.
.
..
..
..
..
...
...
...
.
...
.
.
.
..
..
..
..
...
...
...
.
...
.
.
.
..
..
..
..
...
...
...
.
...
.
.
.
..
.
..
..
..
...
...
...
.
.
.
.
.
.
..
..
..
..
..
...
...
.
.
.
.
.
.
..
..
..
..
..
...
....
....
...
....
.
.
.
.
.
.
..
..
..
..
..
...
...
...
...
.
.
.
.
.
.
..
..
..
..
..
..
...
...
...
...
.
.
.
.
.
.
.
..
..
..
..
..
..
...
...
...
.
.
.
.
.
.
.
.
..
..
..
..
..
..
..
...
...
.
.
.
.
.
.
.
.
..
..
..
..
..
..
..
..
...
....
...
.
.
.
.
.
.
.
.
.....
..
..
..
..
..
..
..
..
...
..
...
...
.
.
.
.
.
.
.
.
..
..
..
..
..
..
..
..
...
...
...
...
.
.
.
.
.
.
.
.
.
.
..
..
..
..
..
..
..
..
...
..
.
.
.
.
.
.
.
.
.
.
..........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
.....
fX (x)
5/36
r
r
r
r
r
r
r
r
1/36
0
r
1
1.2
r
2
r
3
4
5
6
7
8
9
10 11 12
QM1_16
x
112
Verteilung der Augensumme X über die W-Funktion fX :
x
2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
fX (x)
36 36 36 36 36 36 36 36 36 36 36
?
Wahrscheinlichkeit einer geraden Augensumme = ?
Mit G = { 2, 4, 6, 8, 10, 12 } :
−
W. für gerade Augensumme = PX (G)
PX (G) =
X
fX (x)
x∈G
= fX (2) + fX (4) + fX (6) + fX (8) + fX (10) + fX (12)
=
=
?
3
5
1
+
+
36
36
36
18
1
=
36
2
+
5
+
36
3
36
+
1
36
W. einer ungeraden Augensumme ?
Gegenereignis zu ‚ gerade Augensumme ‘
→
1.2
W. für ungerade Augensumme = 1 −
1
1
=
2
2
QM1_16
113
→
?
Verallgemeinerung : Ω0 unendlich
Würfelsumme als Funktion mit Werten in R
Fast alles kann so bleiben
PX ( genauso definiert ) erweist sich als W-Maß
Die Ereignisse in Ω0 sind alle Teilmengen von Ω0
W-Funktion fX genauso definiert
Bestimmung der W. eines Ereignisses E ( in Ω0 ) :
PX (E) =
X
fX (x)
x∈E
!
→
−
Bei unendlichem E : unendliche Summe , nicht definiert
Sondervereinbarung für diese spezielle Situation :
Es sind nur die x mit fX (x) 6= 0 zu berücksichtigen
→
Dann funktioniert alles
B
Wesentlich : Ω ist endlich
1.2
QM1_16
114
?
−
Verteilung der Augensumme X von 2 fairen Würfeln
Jetzt : X : Ω → R
W-Funktion fX :
−
für x = 2, 3, . . . , 12 : fX (x) wie oben
−
für alle anderen x : fX (x) = 0
?
−
4
→
PX ( ( −1, 3.7 ] ) = ?
Augensumme zwischen −1 (aus-) und 3.7 (einschließlich)
Seltsame Frage , aber manchmal sinnvoll
PX ( ( −1, 3.7 ] ) =
X
fX (x)
x∈( −1, 3.7 ]
= fX (2) + fX (3)
=
Andere x ( z.B. −.3 ,
1.2
√
1
36
+
2
36
=
3
36
2 , π ) werden nicht berücksichtigt
QM1_16
115
→
Erinnerung : Monotone Funktionen etc.
♦ Ist A ⊆ R und f : A → R , so heißt f monoton wachsend ,
falls für alle x1 , x2 ∈ A mit x1 < x2 die Beziehung
f (x1 ) ≤ f (x2 ) gilt
♦ Ist A ⊆ R und f : A → R , so heißt f streng monoton
wachsend , falls für alle x1 , x2 ∈ A mit x1 < x2 die
Beziehung f (x1 ) < f (x2 ) gilt
4 Die Funktionswerte wachsen mit dem Argument ( ‚ streng ‘ ) bzw.
werden jedenfalls nicht kleiner
4
?
Analog : ‚ monoton fallend ‘ und ‚ streng monoton fallend ‘
Beispiele
.
...
......
...
.........
..
..
...
.
...
.
.
...
...
...
...
...
...
...
.
...
.
..
...
...
...
...
...
...
...
.
...
.
... .....
... ....
.........
...
.......
.
.
.
.. ...
.
.
.
.
... ...
.
.
.
.
.....
....
.....
..
.....
.....................................................................................
.....
.....
.
.
.
.
...
.
.
.
.
.
.
......
......
.......
.......
........
.....
.
.....
......
.....
.........
.....
..
.....
...
.....
.....
...
.....
...
.....
.....
...
.......................
.
...... ...
...... ..
.......
..............
... ........
......
...
......
...
......
......
...
.............
...
...
...
...
...
...
...
...
...
...
...
....
.
......................................................................................
...
...
...
...
...
...
...
..
−
Links : Streng monoton wachsend
−
Mitte : Monoton fallend, aber nicht streng
−
Rechts : Weder noch noch noch
1.2
.
......
.........
..
...
...
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............ ....
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
... ...........
.
......
...
...... .
...... .
...
.......
...
...
.
.
...
.
...
...
...
...
. .........
...
. ......
...
.....
.
...
.....
.
...
.
....
.........................................................................................
.....
.
.....
.
.
.
r
−
Ferner : ‚ Sprungstelle ‘ , Funktionswert : Dicker Punkt
−
In ‚ Sprungstelle ‘ ‚ rechtsseitig stetig ‘
QM1_16
116
→
Verteilungsfunktion
♦ Eine Zva mit Werten in R heißt auch reelle Zva
?
Würfelsumme
♦ Ist < Ω, P > W-Raum und X reelle Zva auf Ω , so heißt die
Funktion
FX : R → R
mit
FX (x) := P( X ≤ x )
auch Verteilungsfunktion von X
In zweifelsfreien Fällen meist ‚ F ‘ statt ‚ FX ‘
4
Die Funktionswerte von FX liegen natürlich alle in [ 0, 1 ]
4
FX (x) = P(X ≤ x) = PX ( (−∞, x ] ) =
X
fX (x0 )
x0 ≤x
?
Zva X : Augensumme von 2 fairen Würfeln
?
Verteilungsfunktion FX von X ?
1.2
QM1_16
117
?
FX für Zva X : Augensumme von 2 Würfeln ?
Erinnerung : W-Funktion :
..
........
.......
....
...
...
...
.
...
....
...
...
...
...
...
...
.
.
...
....
....
...
.
...
...
.
...
..
...
...
.
...
..
.
...
...
.
.
..
.
..
..
..
...
...
.
.
...
.
..
..
..
...
...
.
.
...
.
.
..
..
..
...
.
.
.
...
.
..
..
..
..
...
.
.
.
..
.
...
.
..
..
..
..
..
...
.
.
.
...
.
...
.
..
..
..
..
...
...
.
.
.
...
.
...
.
.
..
..
..
..
.
...
.
.
.
.
...
.
.
..
..
..
..
..
..
...
.
.
.
.
.
...
.
..
.
..
..
..
..
..
..
..
...
.
.
.
.
.
...
.
...
.
..
..
..
..
..
..
..
...
.
.
.
.
.
...
.
...
.
..
..
..
..
..
.
..
...
...
.
.
.
.
.
.
.
...
.
.
..
..
..
..
..
..
..
...
.
.
.
.
.
.
.
.
..
.
....
..
..
..
..
..
..
..
..
..
...
..
.
.
.
.
.
.
.
.
...
.
..
..
..
..
..
..
..
..
...
...
...
.
.
.
.
.
.
.
.
....
.
....
.
...
...
....
....
....
....
....
....
....
....
...........................................................................................................................................................................................................................................................................................................................................................................
fX (x)
5/36
r
r
r
r
r
r
1/36
0
?
r
r
r
r
r
1 2 3 4 5 6 7 8 9 10 11 12 x
FX (−2) = FX (.5) = FX (1.7) = 0
keine Änderung bis x = 2
?
FX (2) = 1/36
Sprung um fX (2) = P(X = 2)
√
FX (2.3) = FX ( 5) = FX (2.8395) = 1/36
keine Änderung mehr bis x = 3
FX (3) = 3/36
Sprung um fX (3) = P(X = 3)
...
→
FX bleibt konstant zwischen möglichen Werten von X
→
In möglichen Werten x von X : Sprung um fX (x)
...
→
1.2
Schließlich für x ≥ 12 : FX ist konstant ( 1 )
QM1_16
118
→
Verteilungsfunktion und W-Funktion von X : Augensumme
FX (x)
36/36
30/36
25/36
20/36
15/36
10/36
5/36
1/36
.......
..........
...
....
..
...
...
...
......................................................................................................................................................
.........................................................
...
..
.............................
...
...
.............................
...
...
...
...
.............................
....
..
...
...
.............................
...
....
...
..
...
...
.............................
...
...
...
..
...
...
...
.............................
...
...
...
..
..
...
..
...
..............................
...
..
...
...
...
..
...
...
...............................
...
..
...
...
...
..
.............................
...
..
...
.
...
.............................
.....................................................................................................................................................................................................................................................................................................................................................................................................................................
..
......
..
..
..
..
..
..
..
..
.
.........
..
.
..... .
..
..
....
..
...
..
...
..
...
...
..
...
...
..
..
...
...
..
..
...
...
.
.
...
...
...
.
.
...
.
..
..
..
.
...
.
....
.
...
.
...
..
..
..
..
.
.
...
....
....
.
...
.
...
.
.
....
...
...
..
...
..
....
..
....
..
....
....
...................................................................................................................................................................................................................................................................................................................................................................................................................................
..
..
..
.
r
r
r
r
r
r
r
r
r
1
fX (x)
5/36
1/36
1
4
r
2
r
3
4
5
6
7
8
r
r
r
r
r
r
r
2
3
4
5
6
7
8
9 10 11 12
r
r
r
x
r
9 10 11 12
x
fX (x) liefert die Sprunggröße von FX in x
Funktionswerte von fX und FX in den ‚ Sprungstellen ‘ :
2 3 4 5 6 7 8 9 10
1 2 3 4 5 6 5 4 3
fX (x)
36 36 36 36 36 36 36 36 36
1 3 6 10 15 21 26 30 33
FX (x)
36 36 36 36 36 36 36 36 36
x
B
−
1.2
11
2
36
35
36
12
1
36
36
36
Den Wert von FX in x erhält man
durch Aufaddieren der Werte von fX bis x
QM1_16
119
→
Eigenschaften der Verteilungsfunktion
• Aus der Verteilungsfunktion FX lässt sich die Verteilung von X
eindeutig bestimmen
o
n
Die Sprungstellen liefern hier die W-Funktion
• Die Verteilungsfunktion F einer reellen Zva hat folgende
Eigenschaften :
(i) F ist monoton wachsend
(ii) F (x) → 0 für x → −∞
F (x) → 1 für x → ∞
(iii) F ist in allen Punkten x rechtsseitig stetig
o
n
Für die bisher betrachtete Art von Zvan klar
4
Die Eigenschaften gelten allgemein für reelle Zvan
4 Jede Funktion F mit (i) − (iii) ist Verteilungsfunktion einer
reellen Zva
→ Mit den Funktionen F mit (i) − (iii) hat man einen
vollständigen Überblick über mögliche reelle Verteilungen
1.2
QM1_16
120
4
Verteilungsfunktionen sind weniger anschaulich als W-Funktionen
−
Dafür ‚ universeller ‘
−
Auch bei ‚ stetigen ‘ Zvan definiert ( nicht nur bei ‚ diskreten ‘ )
−
Vergleich unterschiedlicher Arten von Verteilungen wird möglich
→
Bestimmung von Wn von Intervallen der Form (a, b ]
• Ist F die Verteilungsfunktion einer reellen Zva X , so gilt für
alle a , b ∈ R mit a < b die Beziehung
P(a < X ≤ b) = F (b) − F (a)
o
n Die Ereignisse ‚ a < X ≤ b ‘ und ‚ X ≤ a ‘ sind disjunkt
Ihre Vereinigung ist das Ereignis ‚ X ≤ b ‘
P(X ≤ b) = P(a < X ≤ b) + P(X ≤ a)
→
P(a < X ≤ b) = P(X ≤ b) − P(X ≤ a)
= F (b) − F (a)
4
?
→
P(a < X ≤ b) = PX ( (a, b ] )
2 Würfel , X : Augensumme
P( 3.3 < X ≤ 7.1 ) = FX (7.1) − FX (3.3)
=
1.2
21
3
18
1
−
=
=
36 36
36
2
QM1_16
121
→
Motivierung der Begriffe Abhängigkeit / Unabhängigkeit
Oft sind zwei Variablen gleichzeitig interessant
−
Besonders bei Fragen nach ‚ Zusammenhängen ‘
?
Gibt es Zusammenhang zwischen Geschlecht und Intelligenz ?
?
Gibt es Zusammenhang zwischen Augen- und Haarfarbe ?
→
Hier : Simultane Betrachtung beider Variablen nötig
?
Was soll hier ‚ Zusammenhang ‘ heißen ?
?
Vereinfachtes Beispiel : Geschlecht (G) - Intelligenz (I)
Intelligenz in nur zwei Stufen :
−
→
i (ntelligent) und u (nintelligent)
Vergleiche 2 mögliche Situationen S1 , S2
−
S1 : Männer : 40% i , 60% u , Frauen : 40% i , 60% u
−
S2 : Männer : 40% i , 60% u , Frauen : 45% i , 55% u
→
S1 : Verteilung von I ist bei Männern und Frauen gleich
→
S2 : Verteilung von I ist bei Männern und Frauen verschieden
1.2
QM1_16
122
2 mögliche Situationen S1 , S2
−
S1 : Männer : 40% i , 60% u , Frauen : 40% i , 60% u
−
S2 : Männer : 40% i , 60% u , Frauen : 45% i , 55% u
♠
‚ Statistische ‘ Sichtweise :
−
In S1 besteht kein Zusammenhang zwischen G und I
−
In S2 besteht ein Zusammenhang zwischen G und I
→
Kriterium : Sind die Verteilungen von I gleich ?
→
Eigentlich : Rollen von G und I unsymmetrisch
Daher vielleicht besser :
−
In S1 hängt I nicht von G ab
−
In S2 hängt I von G ab
→
Eine Art ‚ Präzisierung ‘ von „ Abhängigkeit “
−
Nicht vollständig im Einklang mit Umgangssprache !
−
Betrifft nur den ‚ statistischen ‘ Aspekt der Verteilung
1.2
QM1_16
123
Zum ‚ schillernden ‘ Abhängigkeitsbegriff :
Denkbare Situation :
−
Verschiedene Arten der Intelligenzentwicklung bei M und F
−
Jedoch mit gleichem Resultat ( im Sinne der Verteilung )
4
Nicht gerade „ wahrscheinlich “ , aber nicht unmöglich
?
‚ Hängt ‘ dann I von G ‚ ab ‘ oder nicht ?
?
Vielleicht ‚ Abhängigkeit ‘ , aber ‚ letztlich die gleiche ‘ ?
?
???
→
Hier in Zukunft : ‚ Statistischer ‘ Abhängigkeitsbegriff
B
Offenbar nicht identisch mit umgangssprachlichem
!
Vermeidung von unsinnigen Konfusionen durch
→
Bewusstheit und disziplinierten Sprachgebrauch !
→
Vermeidung von zügellosen sprachlichen Assoziationen !
→
Insbesondere :
−
1.2
Vorschnelle ‚ kausale ‘ Assoziationen vermeiden !
QM1_16
124
→
?
Noch eine Frage :
Kann es sein , dass ( im ‚ statistischen ‘ Sinn )
−
I von G unabhängig ist
−
G von I jedoch nicht ?
Also : Ist folgendes möglich :
−
Verteilungen von I bei Männern und Frauen gleich
−
Verteilungen von G bei Unintelligenten und Intelligenten nicht
?
−
Konkretes Beispiel : Könnte etwa folgendes sein :
Männer : 40% i , 60% u , Frauen : 40% i , 60% u
− Unintelligente : 55% M , 45% F , Intelligente : 54% M , 46% F
?
→
1.2
Ist dieser Abhängigkeitsbegriff also ‚ symmetrisch ‘ oder nicht ?
QM1_16
125
→
Gemeinsame Verteilung von Zvan
♣
Gegeben : Zwei Zvan X , Y auf einem W-Raum < Ω, P >
?
Beispiel : Ω kleine Population
?
X : Geschlecht ,
Y : Haarfarbe
→
Betrachte beide Variablen ‚ gleichzeitig ‘
→
Aus Zwei mach Eins !
♦ Sind X , Y Zvan auf < Ω, P > mit Werten in Ω0 bzw. Ω00 ,
so ist die Zva (X, Y ) : Ω → Ω0 × Ω00 definiert durch
(X, Y )(ω) := (X(ω), Y (ω))
♦ Die Verteilung von (X, Y ) heißt auch gemeinsame Verteilung
von X und Y
4
1.2
Analog für mehr als zwei Zvan
QM1_16
126
?
Gegeben : Population Ω = { a, b, c, d, e, f, g, h, i, j }
−
Interessant : X : Geschlecht , Y : Haarfarbe
Werte von X in Ω0 = { m, w }
Werte von Y in Ω00 = { b, r, s }
−
blond , rot , schwarz
Ungleiche Ziehungswahrscheinlichkeiten
−
W-Maß P auf Ω gegeben durch W-Funktion f
Ausgangssituation , zusätzlich Werte von (X, Y ) :
ω f (ω) X(ω) Y (ω) (X, Y )(ω)
a .10
m
b
(m, b)
b .20
w
b
(w, b)
w
s
(w, s)
c .10
d .05
m
s
(m, s)
e .20
w
s
(w, s)
f .10
w
b
(w, b)
g .05
w
r
(w, r)
h .05
m
r
(m, r)
m
s
(m, s)
i .05
j .10
w
b
(w, b)
1.2
QM1_16
127
Ausgangsituation
ω f (ω) X(ω) Y (ω) (X, Y )(ω)
a .10
m
b
(m, b)
b .20
w
b
(w, b)
c .10
w
s
(w, s)
d .05
m
s
(m, s)
e .20
w
s
(w, s)
f .10
w
b
(w, b)
g .05
w
r
(w, r)
m
r
(m, r)
h .05
i .05
m
s
(m, s)
w
b
(w, b)
j .10
Verteilungen von X , Y
über die W-Funktionen fX , fY :
y
b r s
fY (y) .5 .1 .4
x
m w
fX (x) .25 .75
1
.5
0
r
....
...
.
.
....
...
..
...
...
...
...
..
m
w
r
x
1
.5
0
r
r
...
...
..
...
...
..
..
..
..
...
..
...
..
b
r
s
r
y
Verteilung von (X, Y ) ( Gemeinsame Verteilung von X , Y )
W-Funktion von (X, Y ) : f(X,Y ) oder kurz : fX,Y
Anordnung der Werte von fX,Y in passender Tabelle :
r
s
x\y b
m .10 .05 .10
w .40 .05 .30
1.2
QM1_16
128
Anordnung der Werte von fX,Y in passender Tabelle :
x\y b
r
s
m .10 .05 .10
w .40 .05 .30
Solche Tabellen heißen Kontingenztafeln oder Kreuztabellen
Bildung der Randsummen
( selbsterklärend )
x\y b
r
s
m .10 .05 .10 .25
w .40 .05 .30 .75
.50 .10 .40 1
B
Die Randsummen sind die W-Funktionen von X und Y :
‚ X = m ‘ setzt sich zusammen aus
−
‚ X = m , Y = b ‘, ‚ X = m , Y = r ‘, ‚ X = m , Y = s ‘
Diese Ereignisse sind disjunkt
→
1.2
fX (m) = fX,Y (m, b) + fX,Y (m, r) + fX,Y (m, s)
Dabei : ‚ X = m , Y = b ‘ : ‚ X = m ‘ und ‚ Y = b ‘
etc.
QM1_16
129
→
Allgemeine Bezeichnungen bei Kontingenztafeln
♣
Allgemeine Situation :
−
X , Y sind Zvan auf Ω mit Werten in Ω0 , Ω00
−
Ω0 = { x1 , x2 , . . . , xI } ,
Ω00 = { y1 , y2 , . . . , yJ }
P(X = xi , Y = yj ) = fX,Y (xi , yj ) := pi,j
Statt pi,j auch pij
→
falls Missverständisse ausgeschlossen
Kontingenztafel dann
x\y
x1
x2
..
.
xI
y1
p11
p21
..
.
pI1
y2
p12
p22
..
.
pI2
. . . yJ
. . . p1J
. . . p2J
..
.
. . . pIJ
4
Die eigentliche Tafel hat I Zeilen und J Spalten
Indizierung der Elemente : Reihenfolge Zeile - Spalte
Bezeichnung der Randsummen :
pi. :=
J
X
j=1
pij
p.j :=
I
X
pij
i=1
B
Summe der i-ten Zeile bzw. der j-ten Spalte
4
Der Punkt zeigt , über welchen Index summiert wird
1.2
QM1_16
130
Kontingenztafel allgemein mit Randsummen :
x\y
x1
x2
..
.
xI
y1
p11
p21
..
.
pI1
p.1
y2
p12
p22
..
.
pI2
p.2
. . . yJ
. . . p1J p1.
. . . p2J p2.
..
..
.
.
. . . pIJ pI .
. . . p.J 1
B
pi. = fX (xi ) = P(X = xi )
B
p.j = fY (yj ) = P(Y = yj )
−
1.2
p1. , p2. , . . . , pI . heißt auch oft Randverteilung ( von X )
nicht ganz korrekt , aber suggestiv
Entsprechend p.1 , p.2 , . . . , p.J : Randverteilung ( von Y )
QM1_16
131
→
Bedingte Verteilungen
♣
Voraussetzung jetzt zunächst immer :
−
4
−
B
Alle pi. und alle p.j sind 6= 0
Alle Werte xi von X sollen also W. 6= 0 haben
Alle Werte yj von Y ebenso
Sonst : die Werte mit W. 0 weglassen
P(X = xi | Y = yj ) =
Für jedes j erfüllt xi 7→
−
pij
P(X = xi , Y = yj )
=
P(Y = yj )
p.j
pij
die W-Funktions-Bedingungen
p.j
Funktionswerte sind ≥ 0 , ihre Summe ist 1
♦ Das für ein festes j durch die W-Funktion
xi 7→
pij
p.j
definierte W-Maß auf Ω0 heißt auch die bedingte Verteilung von
X unter Y = yj
4
Dies ist übrigens das Bildmaß von P( · | Y = yj ) unter X
4 Ganz analog : Definition der bedingten Verteilungen von Y
unter X = xi für alle i
1.2
QM1_16
132
?
Bedingte Verteilungen im Beispiel :
Kontingenztafel :
x\y b
r
s
m .10 .05 .10 .25
w .40 .05 .30 .75
.50 .10 .40 1
?
Bedingte Verteilung von X unter Y = b ?
→
?
W-Funktion : m 7→ .1/.5 = .2 ,
w 7→ .4/.5 = .8
Bedingte Verteilung von Y unter X = m ?
→
W-Funktion : b 7→ .4 ,
→
Veranschaulichung der bedingten Verteilungen :
−
1
.5
0
−
s 7→ .4
Bedingte Verteilungen von X unter Y = b , r , s :
1
.5
0
r
....
..
.
....
...
..
...
...
...
...
....
.
m
w
r
x
r
1
.5
0
r
.....
...
..
...
....
.
.....
...
..
...
....
.
m
w
x
r
.
....
...
.
..
...
..
...
...
...
...
....
.
m
w
r
x
Bedingte Verteilungen von Y unter X = m , w :
1
.5
0
1.2
r 7→ .2 ,
r
r
....
...
..
...
.
...
...
.
....
...
..
...
.
b
r
s
r
y
1
.5
0
r
r
..
...
..
...
...
...
.
..
.
....
...
..
...
.
b
r
s
r
y
QM1_16
133
→
−
1
.5
0
−
Bedingte Verteilungen :
Bedingte Verteilungen von X unter Y = b , r , s :
..
...
.
m
w
r
x
r
1
.5
0
r
...
...
..
...
...
..
...
...
..
...
...
..
m
w
x
r
....
...
.
..
...
..
...
...
...
...
...
..
m
w
r
r
r
...
...
..
...
..
..
...
.
...
...
..
...
..
b
r
s
r
y
1
.5
0
r
r
....
...
..
...
...
..
...
...
...
..
...
..
b
r
s
r
y
Vergleich der bedingten Verteilungen :
−
Die bedingten Verteilungen von X sind nicht alle gleich
−
Die bedingten Verteilungen von Y sind nicht alle gleich
?
−
1.2
x
Bedingte Verteilungen von Y unter X = m , w :
1
.5
0
B
1
.5
0
r
...
...
..
...
...
...
...
...
..
Hätte es auch anders sein können ?
Einmal Gleichheit , einmal nicht ?
QM1_16
134
?
Nochmal das gleiche Beispiel , nur mit verändertem P
Ausgangsituation
ω
a
b
c
d
e
f
g
h
i
j
f (ω) X(ω) Y (ω) (X, Y )(ω)
.125
m
b
(m, b)
.100
w
b
(w, b)
.125
w
s
(w, s)
.060
m
s
(m, s)
.175
w
s
(w, s)
.125
w
b
(w, b)
.075
w
r
(w, r)
.025
m
r
(m, r)
.040
m
s
(m, s)
.150
w
b
(w, b)
Kontingenztafel :
x\y b
r
s
m .125 .025 .100 .250
w .375 .075 .300 .750
.500 .100 .400 1
Verteilungen von X , Y :
1
.5
0
1.2
r
..
...
..
.
...
...
..
...
...
...
...
...
.
m
w
r
x
1
.5
0
r
r
....
...
..
...
...
.
...
.
....
...
..
...
.
b
r
s
r
y
QM1_16
135
Kontingenztafel :
x\y b
r
s
m .125 .025 .100 .250
w .375 .075 .300 .750
.500 .100 .400 1
−
1
.5
0
−
Bedingte Verteilungen von X unter Y = b , r , s :
1
.5
0
r
.
....
...
.
..
...
..
...
...
...
...
....
.
m
w
r
x
1
.5
0
r
.
....
...
.
..
...
..
...
...
...
...
....
.
m
w
r
x
r
.
....
...
.
..
...
..
...
...
...
...
....
.
m
w
r
Bedingte Verteilungen von Y unter X = m , w :
1
.5
0
r
r
....
...
..
....
..
.
...
.
....
...
..
...
.
b
r
s
r
y
1
.5
0
r
r
....
...
..
....
..
.
...
.
....
...
..
...
.
b
r
s
r
4
Jetzt : Jeweilige bedingte Verteilungen alle gleich
B
Übrigens : Auch gleich der jeweiligen Randverteilung
?
Zufall ?
B
Bemerkenswert hier :
−
1.2
x
y
Die pij sind die Produkte der Randsummen
QM1_16
136
→
Motivierung der Definition für Unabhängigkeit
Vorläufiger ( statistischer ) Unabhängigkeitsbegriff :
Y ist von X ‚ unabhängig ‘ , falls die bedingten Verteilungen
von Y unter X = xi alle gleich sind ( i = 1 , . . . , I )
Entsprechend umgekehrt ( X von Y )
→
Schlussfolgerungen ?
• Sind die bedingten Verteilungen von Y unter X = xi alle
gleich , so gilt für alle i, j die Beziehung
pij = pi. p.j
Für jedes j sind alle P( Y = yj | X = xi ) gleich :
o
n
p2j
pIj
p1j
=
= ... =
=: p̃j
p1.
p2.
pI .
Randsumme
X
X
X
p.j =
pij =
p̃j pi. = p̃j
pi. = p̃j
i
→
i
Für jedes i gilt
pij = p̃j pi. = p.j pi.
B
1.2
i
Umgekehrt mutatis mutandis genauso
QM1_16
137
→
Definition der Unabhängigkeit von Zvan
♦ Zwei Zvan X , Y auf einem endlichen W-Raum heißen
unabhängig , falls in der zugehörigen Kontingenztafel
für alle i und j die folgende Beziehung gilt :
pij = pi. p.j
−
?
Griffige Ausdrucksweise :
Gemeinsame Verteilung ist Produkt der Randverteilungen
Beispiel :
r
s
x\y b
m .125 .025 .100 .250
w .375 .075 .300 .750
.500 .100 .400 1
4
Voraussetzung pi. 6= 0 , p.j 6= 0 für alle i, j entfällt
4
Definition ist symmetrisch in X , Y
?
1.2
Ist Definition Abschwächung des vorläufigen Begriffs ?
QM1_16
138
• Sind X und Y unabhängige Zvan auf endlichem W-Raum ,
und sind alle pi. = P(X = xi ) nicht 0 , so sind die bedingten
Verteilungen von Y unter X = xi alle gleich und außerdem
gleich der Randverteilung von Y
4
pi. 6= 0 , damit bedingte Wn überhaupt definiert sind
o
n Es gilt für alle j :
P(Y = yj | X = xi ) =
pi. p.j
pij
=
= p.j
pi.
pi.
4
Analog umgekehrt
B
Technische Definition also in Einklang mit Intuition
4
Es folgt jetzt auch :
−
→
Ist Y von X ‚ unabhängig ‘ , so auch X von Y
Alternativformulierungen für Unabhängigkeitsbedingung :
− Für alle x ∈ Ω0 und y ∈ Ω00 gilt
P(X = x, Y = y) = P(X = x) · P(Y = y)
− Für alle x ∈ Ω0 und y ∈ Ω00 gilt
fX,Y (x, y) = fX (x) · fY (y)
1.2
QM1_16
139
→
Multiplikativität bei Ereignissen
• Sind X : Ω → Ω0 und Y : Ω → Ω00 unabhängig , so gilt
für alle A ⊆ Ω0 und B ⊆ Ω00 die Beziehung
P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ B)
X ∈ A und Y ∈ B ⇔ (X, Y ) ∈ A × B
o
n
→
P(X ∈ A, Y ∈ B) = P((X, Y ) ∈ A × B)
X
=
fX,Y (x, y)
(x,y)∈A×B
=
XX
fX (x) · fY (y)
x∈A y∈B
=

! 
X
X
fX (x) · 
fY (y)
x∈A
y∈B
= P(X ∈ A) · P(Y ∈ B)
⇔ : genau dann, wenn
Praktische Sprechweise : ‚ X ∈ A ‘ : ‚ X-Ereignis ‘ etc.
B Satz dann :
− Sind X und Y unabhängig , so sind auch ‚ X-Ereignisse ‘
und ‚ Y -Ereignisse ‘ unabhängig
1.2
QM1_16
140
→
Umkehrung
• Sind X : Ω → Ω0 und Y : Ω → Ω00 Zvan , und gilt für
alle A ⊆ Ω0 und B ⊆ Ω00 die Beziehung
P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ B) ,
so sind X und Y unabhängig
Zeige für alle x , y die Gleichung
o
n
P(X = x, Y = y) = P(X = x) · P(Y = y)
→ Setze hierzu A = {x} , B = {y}
B Definition der Unabhängigkeit mit Bedingung
P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ B)
wäre gleichwertig mit gegebener Definition
4 Im allgemeinen Fall versagt die Formulierung
pij = pi. p.j ,
allgemeine Definition daher später über
P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(Y ∈ B)
1.2
QM1_16
141
→
Unabhängigkeit von mehr als 2 Zvan
♦ Sind Xi : Ω → Ωi ( i = 1, . . . , n ) Zvan auf < Ω, P > mit
Werten in endlichen Mengen Ωi , so heißen X1 , . . . , Xn
(gemeinsam) unabhängig , falls für alle x1 ∈ Ω1 , x2 ∈ Ω2 , . . . ,
xn ∈ Ωn folgende Beziehung gilt :
P(X1 = x1 , X2 = x2 , . . . , Xn = xn ) =
P(X1 = x1 ) · P(X2 = x2 ) · . . . · P(Xn = xn )
4 Gemeinsame Unabhängigkeit ist mehr als paarweise
Unabhängigkeit für alle Paare ( n > 2 )
• Zvan Xi : Ω → Ωi ( i = 1, . . . , n ) auf < Ω, P > mit
Werten in endlichen Mengen Ωi sind genau dann unabhängig ,
falls für alle A1 ⊆ Ω1 , A2 ⊆ Ω2 , . . . , An ⊆ Ωn folgende
Beziehung gilt :
P(X1 ∈ A1 , X2 ∈ A2 , . . . , Xn ∈ An ) =
P(X1 ∈ A1 ) · P(X2 ∈ A2 ) · . . . · P(Xn ∈ An )
• Sind X1 , . . . , Xn gemeinsam unabhängig , so gilt dies auch für
jede Teilmenge der Xi
1.2
QM1_16
142
→
Untersuchung von Fragen nach Unabhängigkeit / Abhängigkeit
Oft ist interessant , ob zwei Variablen unabhängig sind
?
Geschlecht und Intelligenz
Hypothesen : Unabhängigkeit wird zur H0
Test dann auf der Basis von Stichproben
?
−
→
−
Was ist eigentlich das W-Maß ?
Im Beispiel naheliegend : Gleichverteilung in der Population
Stichprobenziehung muss zum W-Maß passen
Im Beispiel : ‚ repräsentative ‘ Stichprobe
?
Was ist eigentlich die Population ?
?
???
B
Bei Anwendungen darf man nicht zu genau hinschauen
1.2
QM1_16
143
→
Funktionen von Zvan und deren Verteilung
♦ Ist X : Ω → Ω0 eine Zva auf < Ω, P > und
h : Ω0 → Ω00 eine Funktion , so ist h(X) definiert als die Zva
h(X) : Ω → Ω00 mit
h(X)(ω) := h(X(ω))
für alle ω ∈ Ω
?
Ω = { a, b, c, d, e, f, g, h, i, j }
−
W-Funktion f und reelle Zva X gegeben durch Tabelle
−
Funktion h : x 7→ x2
Bezeichnung für h(X) dann auch X 2
Tabelle mit vorgegebenem f , X und mit h(X) = X 2
ω
a b
c d e f
g h
i
j
f (ω) .15 .15 .05 .10 .15 .10 .10 .05 .10 .05
X(ω) 2 0 1 −1 −2 1 0 −2 1 −1
X 2 (ω) 4 0 1 1 4 1 0 4 1 1
Verteilung von X und X 2 über die W-Funktionen
x
−2 −1 0 1 2
fX (x) .20 .15 .25 .25 .15
B
1.2
y
0 1 4
fX 2 (y) .25 .40 .35
W-Funktion von X 2 kann auch aus fX bestimmt werden
QM1_16
144
?
−
?
−
Summe von Zvan
Summe als Beispiel einer Funktion von 2 Zvan
Gegeben : W-Raum mit zwei rellen Zvan X , Y
Bilde daraus die neue Zva S := X + Y
a b
c d e f
g h i
j
ω
f (ω) .15 .15 .05 .10 .15 .10 .10 .05 .10 .05
X(ω) 1 0 1 2 1 0 1 2 1 2
Y (ω) 0 1 2 0 2 1 0 2 1 1
S(ω) 1 1 3 2 3 1 1 4 2 3
Gemeinsame Verteilung von X und Y und Verteilung von S
x\y 0 1 2
0 .00 .25 .00
1 .25 .10 .20
2 .10 .05 .05
B
s
0 1 2 3 4
fS (s) .00 .50 .20 .25 .05
fS kann auch aus Kreuztabelle bestimmt werden
• Die Verteilung einer Funktion einer ( oder mehrerer ) Zva(n)
kann auch auf der Basis der Verteilung der Zva ( bzw. der
gemeinsamen Verteilung der Zvan ) bestimmt werden
B Rückgriff auf das ursprüngliche P auf Ω ist nicht nötig
1.2
QM1_16
145
Ergänzungen zur Deskriptiven Statistik.
→
Qualitative Variablen ( auch : quantitative mit wenig Werten )
4
Bekannt :
−
→
Absolute und relative Häufigkeitsverteilung einer Variablen
Gemeinsame Verteilung von zwei Variablen
Notation für den allgemeinen Fall :
−
Variablen : X , Y
−
Mögliche Werte : x1 . . . , xI ( X ) , y1 . . . , yJ ( Y )
−
Stichprobengröße : n
n(X = xi ) : Absolute Häufigkeit des Wertes xi
h(X = xi ) := n(X = xi )/n : Relative Häufigkeit von xi
→
I
X
n(X = xi ) = n
i=1
→
I
X
h(X = xi ) =
i=1
I
X
n(X = xi )/n
i=1
= (1/n)
I
X
n(X = xi ) = (1/n) · n = 1
i=1
Y analog
1.3
QM1_16
146
?
Beispiel : Zusammenhang zwischen Geschlecht und Haarfarbe ?
−
X : Geschlecht , Werte : m , w
−
Y : Haarfarbe , Werte : b , r , s ( blond , rot , schwarz )
?
Stichprobe :
Vp
1
2
3
4
5
X
w
m
w
w
w
Y
b
b
r
b
s
Vp
6
7
8
9
10
X
m
w
w
m
m
Y
s
r
b
s
r
Vp
11
12
13
14
15
X
w
w
w
w
w
Y
r
b
b
b
s
Vp
16
17
18
19
20
X
m
w
w
w
w
Y
s
b
s
b
b
Auszählen am besten mit Strichliste
x\y
b
r s
m |
| |||
w ||||| |||| ||| |||
Absolute Häufigkeiten
x\y
m
w
b
1
9
10
r
1
3
4
s
3 5
3 15
6 20
Relative Häufigkeiten
x\y b
r
s
m .05 .05 .15 .25
w .45 .15 .15 .75
.50 .20 .30 1
1.3
QM1_16
147
Notationen :
n(X = xi , Y = yj ) : Absolute Häufigkeit von (xi , yj )
h(X = xi , Y = yj ) : Relative Häufigkeit von (xi , yj )
Kurzschreibweisen :
−
nij für n(X = xi , Y = yj )
−
hij für h(X = xi , Y = yj )
→
−
→
Versammlung der Häufigkeiten in Kontingenztafeln
mit Randsummen ( analog zu Wahrscheinlichkeiten )
Absolute Häufigkeiten :
x\y
x1
x2
..
.
xI
→
1.3
y2
n12
n22
..
.
nI2
n.2
. . . yJ
. . . n1J n1.
. . . n2J n2.
..
..
.
.
. . . nIJ nI .
. . . n.J n
y2
h12
h22
..
.
hI2
h.2
. . . yJ
. . . h1J h1.
. . . h2J h2.
..
..
.
.
. . . hIJ hI .
. . . h.J 1
Relative Häufigkeiten :
x\y
x1
x2
..
.
xI
B
y1
n11
n21
..
.
nI1
n.1
y1
h11
h21
..
.
hI1
h.1
ni. = n(X = xi ) etc. etc.
QM1_16
148
→
Bedingte relative Häufigkeiten
4
Analog zu bedingten Wn
♣
Voraussetzung im Folgenden :
−
Alle hi. und alle h.j sind 6= 0
♦ Die Zahlen
h(Y = yj | X = xi ) :=
n(Y = yj , X = xi )
n(X = xi )
heißen bedingte relative Häufigkeiten von Y unter X = xi
4 Kurz : h(Y = yj | X = xi ) =
nij
ni.
4
‚ X unter Y ‘ : analog
→
Berechnung mit relativen Häufigkeiten :
•
o
n
1.3
h(Y = yj | X = xi ) =
h(Y = yj | X = xi ) =
hij
hi.
nij
nij /n
hij
=
=
ni.
ni. /n
hi.
QM1_16
149
?
Bedingte relative Häufigkeiten im Beispiel
Kontingenztafeln :
x\y
m
w
b
1
9
10
r
1
3
4
s
3 5
3 15
6 20
x\y b
r
s
m .05 .05 .15 .25
w .45 .15 .15 .75
.50 .20 .30 1
Bedingte relative Häufigkeitsverteilungen von Y :
y
b r s
h(Y = y | X = m) .2 .2 .6
h(Y = y | X = w) .6 .2 .2
Bedingte relative Häufigkeitsverteilungen von X :
x
m
h(X = x | Y = b) .10
h(X = x | Y = r) .25
h(X = x | Y = s) .50
1.3
w
.90
.75
.50
QM1_16
150
→
?
Graphische Darstellung
Kontingenztafel ( relative Häufigkeiten )
x\y b
r
s
m .05 .05 .15 .25
w .45 .15 .15 .75
.50 .20 .30 1
Darstellung der relativen Häufigkeiten :
−
Zwei Möglichkeiten :
.5
0.1
........
.........
...
....
..
...
...
...
..............
...
............
... ...
...
... ..
.............
...
... ...
... ...
...
... ..
...
... ...
..................
...
... ...
......... ......
...
... ...
.................
...
... ..
...
... ...
...
.
... ..
.....................
...
.
.
... .. ........ .........
...
...............
...
...........................
... ... ... ......... ...............
...........
................
...
... ... ...... ...... ..............
................
...
... .. ............ ...............
...............
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
... .. ....... .. ............
.......... ............. ..............
...
.. . .. .. . . .. ..
. . .. .... ..... ..
....................................................................................................................................................................................................................
m
0.5
0.1
−
1.3
X
w
.
.......
..........
...
....
..
...
...
...
...
........
............
...
............
...
......
.............
...
..........
...
..........
..............
...
..........
... ...
..........
...
............
.............
...
......
.............
...
..........
...
..........
.......................
...
..........
...............
..........
..........
............ ..................
...
............
............
.....................
... .. ...........
...
......
......
... ... ...........
.............
.............
...
... ... ..........
..........
..........
...
.......... ..........
.......... ..........
... ... ..................
.. .. ..........
.. .. ..........
...
.
.............................................................................................................................................................................................................................................
b
B
b
r
s
r
s
m
w
Y
Absolute Häufigkeiten : Praktisch genauso
Nur andere Skalierung der Ordinate
QM1_16
151
→
Bedingte relative Häufigkeiten
−
Zunächst von Y ‚ unter X ‘
y
b r s
h(Y = y | X = m) .2 .2 .6
h(Y = y | X = w) .6 .2 .2
Zwei Möglichkeiten der Darstellung :
0.5
0.1
...
......
........
....
...
...
...
............
...
........................
... ..
...
.. .. .
... ...
..............
...
... ...
.....................
...
... ...
..............
...
..............
... ..
..............
...
.
.. . .
... ...
... ...
......................
...
... ...
.............
..............
...
... ..
.............
.
.
...
.
... ..
.............
............
...
.
... ..
..................
...............
...
.
.
... ..
. ... ..
.. ....
...
... ...
.........................
.....................
...
... ...
.............
............
...
... ..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
... .. ..... .... ...........
... .. .... ...... ..............
...
... ... ............ ................
... ... ........ .... .................
........................
...
...........................
... .. .... ....... ...............
... ... ............. ...............
...........
... ... ...... ..... ...............
...
... .. .... ....... ...............
... ... ........... ..............
... ... ....... .... ...............
...
... .. ............. ...............
... ... ........... ...............
...
... ... ...... ..... ...............
... .. .... ....... ...............
...
.
..................................................................................................................................................................................................................
m
0.5
0.1
1.3
X
w
.
.......
..........
...
....
..
...
...
............
..................
...
... ..
..........
...
..........
... ...
..........
...
... ..
............
...
... ...
......
... ...
............
...
..........
... ..
...
..........
... ...
...
..........
... ...
..........
...
..........
... ...
...
.
.
......
... ..
............
...
..............
... ...
..........
...
... ...
... ...
..........
...
..........
.............
... ..
..........
... ...
...
...........
.
.
...
.
.
... .. .........
............ .................
............ ..................
.
.
.
.
.
.
.
...
.
.
.
........................
... .. ...........
... .. ...........
... ... ...........
...
...........
... ... ...........
... ... ...........
... .. ..................
..........................
...
... ... ..................
... ... ..................
... ... ..........
...
... .. ...........
... .. ...........
... ... ............
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... .. ..........
... .. ..........
... .. ..........
...
. .. .
. .. .
. .. .
......................................................................................................................................................................................................................................................................................
b
4
b
r
s
r
s
m
w
Y
Unterschiedliche jeweilige Vorteile der Diagramme
QM1_16
152
→
−
Bedingte relative Häufigkeiten
Nun von X ‚ unter Y ‘
x
m
h(X = x | Y = b) .10
h(X = x | Y = r) .25
h(X = x | Y = s) .50
w
.90
.75
.50
Wieder zwei Möglichkeiten der Darstellung :
1
.5
0.1
...
......
.........
....
...
...
...
...
...
...........
...
... ...
...
... ...
...
... ..
...
... ... ........
... ... ..... ....
...
... .. ...........
...
... ... ... ........
...
... ... ............
...
... ... ........ ...
...
... .. ...........
...............
...
... ... ...........
... ..
...
... ... ........ ... .......
.............
................
...
... .. ............ ................
.
... ... ............. .............
...
......................
... .. ....... .... ...............
..............
...
...................
.. .. .
... ... ........... ..............
...
. .. .
.....................
... ... .... ....... ...............
...
...........................
... ....
... ... ........... ................
...
....................
... .. ......... .. ..............
.............
...
.
.
.
.
.
.
.
... .. .. ....... ............
............. ...............
...
... ... ...... ..... ...............
............ ...............
...
.........................
... .. ........... ................
.... ........ ...............
..........................
...
... ... ........... ...............
...........
............. ................
... ... ..... ....... .............
...
. .. . ... ..
... .. ........ ... ...............
...
........... ............... ....................
... ... ............ .................
... ... ............ ................
...
... ... ..... ....... ...............
... ... ............ ................
...
..........................................................................................................................................................................................
m
1
.5
0.1
X
w
.......
.........
...
..
...
...
...
...
...
.................
...........
...
..........
...
..........
...
..........
..........
...
..................
............
...
...........
......
...........
............
...
..........
..........
...
..........
..........
...
..........
.
.
.
.
.
.
.
.
..........
............
...
............
............
...
......
......
............
.............
...
........... .................
..........
..........
...
... ... ...........
..........
..........
...
..........
..........
... .. ..........
..........
..........
... ... ..................
...
..............
............
..........
... ... ............
...
... ...
.
.
......
......
... .. ..........
.............
............
.............
...
. ...........
..........
..........
.
.
.
...
.
... .. ..........
..........
..........
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........
.
.
.
... .. ..........
........... ...........
..........
.
...
.
.
.
.
.
.
... .. ..........
... .. ..........
..........
.......................
...
..........
.............
... .. ..........
... ... ..................
......................
..........
...
... ... ..................
... .. ..........
..........
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
... .. .........
... .. ................
........... ...................
.
.
.
.
.
.
.
...
.
.
.
.
.
... .. ..........
... .. ...........
... ... ...........
.
...
.
.
.
.
.
. .......
.......
.......
...............................................................................................................................................................................................................................................................
b
1.3
b
r
s
r
s
m
w
Y
QM1_16
153
→
•
Bedingte Verteilungen und Randverteilung
h(X = xi ) =
J
X
h(X = xi | Y = yj ) h(Y = yj )
j=1
o
n
Rechte Seite ist
X hij
j
h.j
h.j =
X
hij = hi.
j
4
Randverteilung von Y : analog
4
Analog auf theoretischer Ebene für Wahrscheinlichkeiten
4
Vgl. Satz von der totalen Wahrscheinlichkeit
B
Andere Formulierung :
−
Randverteilung ist gewichtetes Mittel der bedingten Verteilungen
−
Gewichte stammen aus der anderen Randverteilung
4
−
B
1.3
Gemeint ist :
Jede relative Randhäufigkeit hi. ist gewichtetes Mittel ...
Gewichte sind dabei unabhängig von i
QM1_16
154
→
Umrechnung bedingter relativer Häufigkeiten
•
h(X = xi | Y = yk ) h(Y = yk )
h(Y = yk | X = xi ) = P
j h(X = xi | Y = yj ) h(Y = yj )
o
n
Zähler : hik ,
Nenner : hi.
4
h(X = xl | Y = yj ) analog
4
Analog auf theoretischer Ebene für Wahrscheinlichkeiten
4
Vgl. Satz von Bayes
→
Stichprobe und Population
Interessant sind Verhältnisse in Populationen
?
Sind zwei Variablen abhängig oder unabhängig ?
Untersuchung solcher Fragen mit Hilfe von Stichproben
♠
−
→
−
1.3
Populationsverhältisse sollten sich in Stichprobe widerspiegeln
Jedenfall mehr oder weniger
Ein Hauptthema der Statistik :
Möglichkeit von Rück ‚ schlüssen ‘
QM1_16
155
→
Unabhängigkeit / Abhängigkeit in Stichproben
→
Entsprechende Fragen sind interessant für Populationen
−
für die Stichprobe eigentlich weniger
→
Trotzdem : Verhältnisse in Stichprobe können Hinweise geben
→
Bildung hilfreicher Begriffe
♦ Zwei Variabe X und Y heißen ( in der Stichprobe )
unabhängig , falls in der Kontingenztafel für alle i, j folgende
Beziehung gilt :
hij = hi. h.j
4
Imitation des Unabhängigkeitsbegriffs auf Stichprobenebene
Bei Unabhängigkeit in der Population sollte hoffentlich in der
Stichprobe ‚ näherungsweise ‘ Unabhängigkeit gegeben sein
‚ Starke Abweichung ‘ von der Unabhängigkeit in der Stichprobe
spricht gegen Unabhängigkeit in der Population
→
−
1.3
Aufgabe :
Entwicklung eines ‚ Maßes ‘ für den Grad der Abhängigkeit
QM1_16
156
→
Ein Gegenbegriff zur Unabhängigkeit
→ Motivation :
− Eine ‚ starke ‘ Abhängigkeit liegt vor , wenn man aus der
Ausprägung einer Variable auf die Ausprägung der anderen
‚ schließen ‘ kann
?
Beispiel : Kontingenztafel relativer Häufigkeiten
x\y y1 y2 y3
x1 .00 .25 .00
x2 .35 .00 .40
→
−
?
Hier kann von Y auf X ‚ geschlossen ‘ werden
Nicht aber von X auf Y
Beispiel :
x\y y1 y2 y3
x1 .10 .25 .00
x2 .25 .00 .40
→
?
In keiner Richtung ist ein ‚ Schluss ‘ möglich
Beispiel :
x\y
x1
x2
x3
→
1.3
y1
.25
.00
.00
y2
.00
.00
.30
y3
.00
.45
.00
‚ Schlüsse ‘ sind in beide Richtungen möglich
QM1_16
157
♦ Zwei Variablen X und Y heißen vollständig abhängig ( in der
Stichprobe ) , falls für ihre Kontingenztafel ( mindestens ) eine
der folgenden Bedingungen gilt :
(i) In jeder Zeile steht höchstens eine Zahl 6= 0
(ii) In jeder Spalte steht höchstens eine Zahl 6= 0
4
(i) : Y ist von X abhängig , (ii) : X von Y
4
Dieser Abhängigkeitsbegriff ist bestenfalls ‚ statistisch ‘
−
4
−
B
−
4
−
1.3
‚ Bestenfalls ‘ : Bezug auf die Stichprobe , nicht die Population
Vollständige Abhängigkeit und Unabhängigkeit schließen sich aus
Trivialfälle ( Variablen mit nur einer Ausprägung ) ausgenommen
Sie sind aber nicht das jeweilige Gegenteil
Es gibt Fälle ‚ dazwischen ‘
Da alle Randsummen 6= 0 sind ( allgemeine Voraussetzung )
kann man ‚ höchstens ‘ durch ‚ genau ‘ ersetzen
QM1_16
158
→
Erwartete relative Häufigkeiten
♦ Sind hij die relativen Häufigkeiten in einer Kontingenztafel , so
heißen die Zahlen
eij := hi. h.j
auch erwartete relative Häufigkeiten
?
Kontingenztafel mit Randsummen :
x\y y1
x1 .05
x2 .45
.50
→
y2
.05
.15
.20
y3
.15 .25
.15 .75
.30 1
Tafel der eij mit Randsummen :
x\y y1
y2
y3
x1 .125 .050 .075 .250
x2 .375 .150 .225 .750
.500 .200 .300
1
→
Die Randsummen bleiben erhalten
X
•
X
eij = h.j ,
i
X
o
n
1.3
i
eij =
X
i
eij = hi.
j
hi. h.j = h.j
X
hi. = h.j · 1 = h.j
i
QM1_16
159
4
−
4
‚ Erwartete ‘ relative Häufigkeiten :
‚ Erwartet ‘ bei Unabhängigkeit
Die eij sind denkbare relative Häufigkeiten ( ≥ 0 ,
−
mit gleichen ( gegebenen ) Randsummen
−
die bei Unabhängigkeit vorliegen müssten
P
: 1)
→ Idee für ein Maß der Abweichung von Unabhängigkeit :
−
Vergleiche die hij mit den eij
♦ Sind hij die relativen Häufigkeiten in der Kontingenztafel von
zwei Variablen X und Y , so heißt die Zahl
2
ϕ :=
J
I X
X
(hij − eij )2
i=1 j=1
eij
auch ϕ2 -Koeffizient der Kontingenztafel
4
−
ϕ2 ist genau dann 0 wenn hij = eij für alle i, j
also genau bei Unabhängigkeit
4
ϕ2 wächst mit den Unterschieden zwischen den hij und eij
B
ϕ2 scheint sich als Abhängigkeitsmaß zu eignen
1.3
QM1_16
160
?
Berechnungsbeispiel
Kontingenztafel mit Randsummen :
x\y y1
x1 .05
x2 .45
.50
→
y2
.05
.15
.20
y3
.15 .25
.15 .75
.30 1
Tafel der eij :
y2
y3
x\y y1
x1 .125 .050 .075
x2 .375 .150 .225
Berechnung
(i, j) hij
(1, 1)
(1, 2)
(1, 3)
(2, 1)
(2, 2)
(2, 3)
→
?
1.3
.05
.05
.15
.45
.15
.15
eij
.125
.050
.075
.375
.150
.225
(hij − eij )
−.075
.000
.075
.075
.000
−.075
(hij − eij )2
eij
.045
.000
.075
.015
.000
.025
.160
ϕ2 = .16
( Was sagt uns das ? )
QM1_16
161
→
Alternative Berechnungsformeln
2
ϕ =
•
X h2ij
eij
i,j
ϕ
o
n
2
=
X n2ij
− 1 =
− 1
n
n
i
.
.
j
i,j
X (hij − eij )2
eij
i,j
=
X
i,j
=
X h2ij
i,j
=
i,j
eij
=
X
i,j
eij
X h2ij
i,j
X h2ij
eij
X h2ij
i,j
=
h2ij
− 2hij + eij
eij
eij
−2
X
i,j
eij
i,j
− 1
X n2ij
(nij /n)2
=
(ni. /n)(n.j /n)
ni. n.j
i,j
Vorteil : Meist schnelleres Rechnen
−
Nachteil : Bedeutung nicht so klar
1.3
X
− 2 + 1
4
→
hij +
!
Ursprüngliche Formel für Definition geeigneter
QM1_16
162
→
Eigenschaften
Abkürzung : L = Min( I, J )
?
Für I = 2 und J = 3 ist L = 2
ϕ2 ≥ 0
•
•
ϕ2 = 0
⇔
4
X und Y sind unabhängig
ϕ2 = L − 1
⇔
X und Y sind vollständig abhängig
Werte 0 und L − 1 haben Bedeutung
?
Werte dazwischen ?
?
Vergleichbarkeit von Werten ?
−
4
ϕ2 ≤ L − 1
•
•
‚ Weder – noch ‘
Je größer ϕ2 , um so größer die Abhängigkeit ??
Vergleiche vielleicht möglich bei Tafeln gleicher Größe
?
Können wir jetzt das Ausmaß der Abhängigkeit ‚ messen ‘ ?
?
Bringt der Koeffizient neue nichtstatistische Einsichten ?
1.3
QM1_16
163
→
Verwandte Indizes
r
♦
4
−
0
ϕ :=
ϕ2
L−1
ϕ0 ‚ erbt ‘ die Eigenschaften von ϕ2
Vorteil : Maximalwert ist hier immer 1
0 ≤ ϕ0 ≤ 1
•
•
•
♦
ϕ0 = 0
ϕ0 = 1
⇔
1.3
X und Y sind unabhängig
X und Y sind vollständig abhängig
Zur Unterscheidung auch Pearson-χ2
0 ≤ χ2 ≤ n (L − 1)
χ2 = 0
• χ2 = n (L − 1)
B
⇔
χ2 := n ϕ2 heißt auch χ2 -Koeffizient
•
•
heißt auch Cramérs V
⇔
⇔
X und Y sind unabhängig
X und Y sind vollständig abhängig χ2 wird für einen verbreiteten Test auf Unabhängigkeit benutzt
QM1_16
164
→
Alternative Berechnung von χ2
χ2
•
=
X
i,j
n eij = n
o
n
χ
2
ni. n.j 2
nij −
n
ni. n.j
n
ni. n.j
ni. n.j
=
n n
n
X (hij − eij )2
= nϕ = n
eij
i,j
2
X n2 (hij − eij )2
X (n (hij − eij ))2
=
=
n
e
n eij
ij
i,j
i,j
=
X
i,j
4
−
ni. n.j 2
nij −
n
ni. n.j
n
Für die praktische Rechnung womöglich bequemere Formeln
Vgl. ϕ2
Die n eij =
ni. n.j
heißen auch erwartete Häufigkeiten
n
4
‚ Erwartet ‘ bei Unabhängigkeit und gegebenen Randsummen
B
Meist keine möglichen Häufigkeiten, da keine natürliche Zahlen
1.3
QM1_16
165
→
−
−
→
χ2 mit anderen Bezeichnungen
fo,ij := nij : ‚ beobachtete Häufigkeiten ‘
f : ‚ frequency ‘ , o : ‚ observed ‘ ,
fe,ij := n eij =
ni. n.j
: ‚ erwartete Häufigkeiten ‘
n
e : ‚ expected ‘
Mit diesen Bezeichnungen :
χ
2
=
X
i,j
4
1.3
ni. n.j 2
nij −
X (fo,ij − fe,ij )2
n
=
ni. n.j
fe,ij
i,j
n
Vergleich von beobachteten und erwarteten Häufigkeiten
QM1_16
166
→
Testen mit χ2
Hypothesen :
H0 : X und Y sind unabhängig
H1 : nicht H0
B
Die Hypothesen beziehen sich auf die ‚ Population ‘
→
Theoretische Ebene
B
X und Y werden als Zvan betrachtet
→
Vorgehen :
−
Ziehen einer ‚ Zufallsstichprobe ‘
−
Berechnen von χ2
−
Verwerfen von H0 für große Werte
4
Kritische Werte in geeigneten Tabellen
B
Wie üblich : Schwache Position von H0
4 Ein ganz ähnlicher Test benutzt eine eine andere , auch χ2
genannte Statistik ( ‚ Maximum-Likelihood-χ2 ‘ )
1.3
QM1_16
167
→
?
Mehr als zwei Variablen
Ein Beispiel mit drei Variablen
Hat ein Gen G etwas mit einer Eigenschaft E zu tun?
Geschlecht wird bei Untersuchung berücksichtigt
Jetzt : Drei Variablen
−
X : Gen ( Werte : g+ , g− : vorhanden : ja , nein )
−
Y : Eigenschaft ( Werte : e+ , e− : vorhanden : ja , nein )
−
Z : Geschlecht ( Werte : m , w )
→
Statt Kontingenztafel jetzt : ‚ Kontingenzquader ‘
Y
e+ e−
.....
.....
.....
.....
.....
.....
............
............
........
........
................................................................................
.....
..
.. ..
.....
.....
..... ..
................................................
.....
.....
..... ....
....
.
...
.
.....
.....
.
.
.........................................................................................
.
.
.
....
.
.....
.....
..... ...
...
................................................
.....
.....
..... ...
.
.
.
...
.
.
.
.
.
.
.
.
.
...
.......................................................................................
.
.
.
.
.... ............
...
..
..
.
.
.
....
... ......... ....
....
....
.
...
...
...
...
................................................
.......
...
...
...
... .............
...
...
.
. ..... ..
.
.
....
....
............ ....
.....
..............................................................................
..
.
.
... .........
....
...
...
... ......
....
...
...
.
.........
...
...
...
................................................
...
...
... .........
...
...
... .......
...
....
..........
.........................................................................
g+
X g−
m
Z
→
?
1.3
w
Datendarstellung : ‚ schichtweise ‘
Beispielsweise eine Schicht m und eine Schicht w
QM1_16
168
Y
e+ e−
.....
.....
.....
.....
. ......
. ......
..........
..........
........
........
................................................................................
....
...
... ..
.....
....
.... ..
................................................
.....
.....
..... ....
.....
.
.
.....
.....
...
.
.
.......................................................................................
.
.
.
....
.
.
.
..
.....
.....
..... ..
...
................................................
.....
.....
..... ...
.
.
.
...
.
.
.
.
.
.
..
........................................................................................
.
.
.
... ...........
...
.
.
.
.
.
....
... ......... ....
....
....
. ..
...
...
...
...
................................................
.....
...
...
...
...
.......
...
...
.
. ........ ....
.
.
.
.....
.....
.............. ....
.....
..
.............................................................................
.
.
... .........
...
...
...
....
...
...
.... .........
...
...
...
....
................................................
.....
...
...
...
....
...
...
... ........
...
...
...........
...........................................................................
g+
X g−
m
Z
?
w
Beispiel ‚ daten ‘ ( Werte der Übersichlichkeit halber )
Z=m
x\y e+ e−
g+
1 2
g−
3 4
Z=w
x\y e+ e−
g+
5 6
g−
7 8
Andere Anordnung :
X = g+
z\y e+ e−
m
1 2
w
5 6
X = g−
z\y e+ e−
m
3 4
w
7 8
Dritte mögliche Anordnung :
Y = e+
z\x g+ g−
m
1 3
w
5 7
1.3
Y = e−
z\x g+ g−
m
2 4
w
6 8
QM1_16
169
→
Randverteilungen
→
Sinnvoll : Zunächst von je zwei Variablen
Y
e+ e−
...
.....
.....
..............
.
.
.
......
g+
X g−
?
....................................................................................
.....
.
..
.....
.....
..... ..
.....
.....
..... ....
...
.........................................................................................
.
.
.
.
.
...
...
...
......
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.....
.....
..... ..
...
.....
.....
..... ....
.
.
.
.
.
.
.
.
.
.
.
.
..
..................................................................................
...
.
.
.
.
.
.... ....... ...
....
.
.
.
.
.
.
.
....
.... ......... ....
..
..
.
.
...
...
....
....
....
....
.....
...
... .............
.....
...
...
...
... ....... ..
.
.....
.
..
..
.
.
...
.
.
.
.
...
.
...............................................................................
.
... .........
..
...
...
...
.
.
... ......
.
.
..
....
....
....
.....
...
...
... .........
...
..
.. .....
.........................................................................................
.................................................
................................................
Z
...
.....
.....
..............
.
.
.
......
m
................................................
w
.................................................
Daten
Z=m
x\y e+ e−
g+
1 2
g−
3 4
Z=w
x\y e+ e−
g+
5 6
g−
7 8
Randverteilungen von X und Y , Z und Y , Z und X
−
mit jeweiligen Randverteilungen der Einzelvariablen
X,
x\y e+
g+
6
g− 10
16
B
1.3
Y
e−
8 14
12 22
20 36
Z,
z\y e+
m
4
w 12
16
Y
e−
6 10
14 26
20 36
Z,
z\x g+
m
3
w 11
14
X
g−
7 10
15 26
22 36
Randverteilungen von X , Y , Z müssen jeweils gleich sein
QM1_16
170
→
Bedingte Verteilungen
B
Unterschiedliche Arten von bedingten Verteilungen
?
Daten
Z=m
x\y e+ e−
g+
1 2
g−
3 4
Z=w
x\y e+ e−
g+
5 6
g−
7 8
?
Beispiele für bedingte Verteilungen :
?
Bedingte ( gemeinsame ) Verteilung von X , Y für Z = m
−
mit Randverteilungen
Z=m
x\y e+ e−
g+ .1 .2 .3
g− .3 .4 .7
.4 .6 1
B
−
?
Randverteilungen hier :
Bedingte Verteilungen von X und Y für Z = m
Bedingte Verteilung von X für Z = m und Y = e+
Z = m , Y = e+
x g+ g−
.25 .75 1
4
1.3
Vgl. bedingte Verteilung von X und Y für Z = m
QM1_16
171
→
‚ Bedingte Unabhängigkeit ‘
?
Ein Beispiel für mögliche Überraschungen
?
Daten
Z=m
x\y e+ e−
g+
1 9
g−
9 81
Z=w
x\y e+ e−
g+ 81 9
g−
9 1
Bedingte gemeinsame Verteilungen von X und Y :
Z=m
x\y e+ e−
g+ .01 .09 .1
g− .09 .81 .9
.1 .9 1
→
Z=w
x\y e+ e−
g+ .81 .09 .9
g− .09 .01 .1
.9 .1 1
‚ Bedingte Unabhängigkeit ‘ für m und für w
Randverteilung von X und Y ( relative Häufigkeiten )
x\y e+ e−
g+ .41 .09 .5
g− .09 .41 .5
.5 .5 1
→
−
1.3
Ziemlich deutliche Abhängigkeit insgesamt
trotz Unabhängigkeit für m und w für sich genommen !
QM1_16
172
?
Noch ein Beispiel
?
Daten
Z=m
x\y e+ e−
g+ 25 0
g−
0 25
→
Z=w
x\y e+ e−
g+
0 25
g− 25 0
Vollständige Abhängigkeit bei m und bei w
Randverteilung von X und Y ( relative Häufigkeiten )
x\y e+ e−
g+ .25 .25 .5
g− .25 .25 .5
.5 .5 1
→
−
B
−
!
1.3
Unabhängigkeit insgesamt
trotz vollständiger Abhängigkeit für m und w getrennt
Begrifflichkeit ist komplizierter
als man vielleicht ( naiv ) zuerst denkt
Gefahren unreflektierten Daherassoziierens !
QM1_16
173
→
?
−
Quantitative Daten
Gegeben sind Daten von 20 Vpn in einer Variable X
4, 2, 1, 5, 3, 1, 5, 3, 2, 5, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2
xi : Wert von Vp i
!
Andere Verwendung des Symbols xi als vorher
?
x5 = 3
Häufigkeitsauszählung ( geordnet )
−
wj : mögliche Werte ( j = 1, . . . J )
nach Größe geordnet : w1 < w2 < . . . < wJ
nj : absolute Häufigkeit von wj
♦
hj := nj /n : relative Häufigkeit von wj
→
Tabelle mit ‚ kumulierten relativen Häufigkeiten ‘ F (wj )
j
1
2
3
4
5
6
P
1.3
wj
0
1
2
3
4
5
nj
1
4
7
3
2
3
20
hj
0.05
0.20
0.35
0.15
0.10
0.15
1.00
F (wj )
.05
.25
.60
.75
.85
1.00
QM1_16
174
j
1
2
3
4
5
6
P
wj
0
1
2
3
4
5
nj
1
4
7
3
2
3
20
hj
0.05
0.20
0.35
0.15
0.10
0.15
1.00
F (wj )
.05
.25
.60
.75
.85
1.00
Neu nur : die kumulierten relativen Häufigkeiten F (wj )
Formal :
♦
F (wk ) :=
k
X
hj
j=1
4
Analogie : Verteilungsfunktion
Bedeutung von F (wj ) :
−
?
Anteil der Stichprobe mit Werten ≤ wj
F (3) = .75
→
75% der Vpn haben einen Wert ≤ 3
→
25% der Vpn erreichen einen höheren Wert als 3
♦
100 F (w) heißt auch Prozentrang von w
?
Der Prozentrang von 3 ist 75
1.3
QM1_16
175
Der Prozentrang einer Vp ist der Prozentrang ihres X-Wertes
4 Über den Prozentrang kann man manchmal ( mit aller Vorsicht )
Personen in verschiedenen Situationen vergleichen
?
Zwei Gruppen schreiben verschiedene Statistikklausuren
−
A aus Gruppe 1 erreicht 19 Punkte
−
B aus Gruppe 2 erreicht 23 Punkte
?
Wer ist besser ?
?
??? ( ‚ Ist es nachts kälter als draußen ? ‘ )
Nun seien zusätzlich die Prozentränge bekannt
−
Prozentrang von A : 86 , Prozentrang von B : 47
→
( Mit aller Vorsicht ) A ist besser
B
Voraussetzung für derartige Vergleiche :
−
4
?
→
Die beiden Gruppen sind hinsichtlich der Leistung etwa gleich
Prozentrang wird oft in Diagnostik verwendet
Leistungsbeurteilung
Antwort auf die Frage :
−
Wo steht ein Proband in seiner Vergleichsgruppe ?
−
Voraussetzung : ‚ Normstichproben ‘
1.3
QM1_16
176
j
1
2
3
4
5
6
P
wj
0
1
2
3
4
5
nj
1
4
7
3
2
3
20
hj
0.05
0.20
0.35
0.15
0.10
0.15
1.00
F (wj )
.05
.25
.60
.75
.85
1.00
Umgekehrte Fragestellung :
?
4
Welchen Wert braucht man für einen Prozentrang von 85 ? ( 4 )
Welchen Wert braucht man für einen Prozentrang von 50 ?
Nicht ganz klar
→
Geeignete Konventionen nötig
→
Darstellung der kumulierten relativen Häufigkeiten
−
?
analog zur Verteilungsfunktion
F
1
..
.......
........
....
...
...
.................................................................
...
...
...
...
...
....................................
...
...
....................................
...
...
...
...
...
....................................
...
...
...
...
...
...
...
...
...
....................................
...
...
...
...
...
...
.....................................
..............................................................................................................................................................................................................................................................................
r
r
r
r
.5
r
0
r
0
4
1.3
1
2
3
4
5
x
Sprunggrößen im Balkendiagramm der relativen Häufigkeiten
QM1_16
177
→
Kenngrößen für quantitative Variablen
→
Maße der zentralen Tendenz
?
Wo liegen die Daten ‚ im Mittel ‘ ?
→
Weit verbreitet : Mittelwert
♣
Situation : n Vpn liefern in Variable X die Werte x1 , . . . , xn
−
Mögliche Werte geordnet : w1 , . . . , wJ
−
Relative Häufigkeiten der Werte : h1 , . . . , hJ
♦ In der gegebenen Situation heißt
MX
n
1 X
:=
xi
n i=1
auch Mittelwert der Variable X
Schreibweise manchmal auch M (X)
Berechnung mit relativen Häufigkeiten
•
MX =
J
X
wj hj
j=1
4
1.3
Gewichtetes Mittel der möglichen Werte , Gewichte : hj
QM1_16
178
→
Verhalten des Mittelwerts bei Transformationen
♦ Eine Funktion f : R → R mit
f (x) = a x + b
heißt manchmal auch lineare Transformation
4
Nicht die glücklichste Bezeichnung
Erinnerung : Schaubild :
.
.......
.........
.........
....
.........
...
.........
.........
.
.
.
.
.
.
...
.
.
.
...
......... ....
...
.........
...
...
.........
.........
...
...
.........
.
.
.
.
.
.
.
...
.
.
..........................................................................
.
.
.
.
.
...
.
.
.
.
.
.
.
......
.
.
.
.
.
.
...
.
.
......
.
.
.
.
.
.
...
.
.
...
.........
...
.........
...
.........
.........
...
.........
.
.
.
.
.
.
...
.
.
...
... .................
.
.........
......... ....
.........
.
.
.
.
.
.
.
.
.
.
.........
....
.........
.........
...
.........
...
.........
...
...
...
...
...
...
...............................................................................................................................................................................................................................
....
f (x)
a
1
b
x
1
?
Umrechnungen von Intervallskalen
B Genauer :
− Intervallskalen sind dadurch definiert, dass die möglichen
Umrechnungen von einer Skala in eine andere genau die linearen
Transformationen mit a 6= 0 sind
?
1.3
Umrechnung Celsius → Fahrenheit :
◦
F =
9◦
C + 32
5
QM1_16
179
Bildung neuer Variablen
Ist X eine Variable und f eine Funktion auf dem Bereich der
möglichen Werte von X , so ist f (X) die Variable, die den
Wert f (x) annimmt , falls X den Wert x annimmt
?
X : Temperatur in Celsius
Y =
9
X + 32 : Temperatur in Fahrenheit
5
? Ist Y = X 2 und hat Vp 4 in X den Wert 3 , so hat sie in Y
den Wert 9
( x4 = 3 ⇒ y 4 = 9 )
−
Analog : Funktionen von 2 Variablen
Summen , Produkte , etc. etc.
• Ist X eine reellwertige Variable und Y = aX + b , so gilt für
eine gegebene Stichprobe
MY = a MX + b
o
n
Werte von X : x1 , . . . , xn
( n Vpn )
Werte von Y dann : y1 = ax1 + b, . . . , yn = axn + b
1X
1X
yi =
(a xi + b)
n i
n i
1 X
1X
1 X
1
=
a xi +
b = a
xi +
nb
n i
n i
n i
n
MY =
= aMX + b
1.3
QM1_16
180
?
Beispiel für bequemere Rechnungen :
?
Gesucht ist der Mittelwert von , 4020 , 4050 , 3990
Fasse Zahlen auf als Transformationen von 2 , 5 , −1
−
unter der Transformation
Y = 10 X + 4000
Mittelwert von 2 , 5 , −1 ist 2
→
Mittelwert der Originaldaten ist 10 · 2 + 4000 = 4020
→
Mittelwert von Summen
• Sind X und Y reellwertige Variable und Z = X + Y , so gilt
für eine gegebene Stichprobe
MZ = MX + MY
o
n
Werte von X und Y : x1 , . . . , xn bzw. y1 , . . . , yn
( n Vpn )
Werte von Z dann : z1 = x1 + y1 , . . . , zn = xn + yn
1X
1X
zi =
(xi + yi )
n i
n i
1 X
1X
=
xi +
yi
n i
n i
MZ =
= MX + MY
?
→
1.3
Intelligenztest Z ist Summe aus zwei Untertests X , Y
Mittelwert des Tests ist Summe der Mittelwerte der Untertests
QM1_16
181
→
?
Verallgemeinerung
X und Y sind Tests von Intelligenzkomponenten
−
Gesamttestergebnis Z ist 2 X + 3 Y − 5
−
Untertests also verschieden ‚ gewichtet ‘
−
Zusätzlich Konstante ( −5 ) ,
−
?
vielleicht für glatten Gesamtmittelwert
Mittelwert von Z ?
Mehrfache Anwendung der Regeln ( verschiedene Möglichkei-
ten )
MZ = M (2 X + 3 Y − 5) = M ((2 X + 3 Y ) − 5)
= M (2 X + 3 Y ) − 5 = M ((2 X) + (3 Y )) − 5
= M (2 X) + M (3 Y ) − 5 = 2 MX + 3 MY − 5
Insgesamt :
→
1.3
MZ = M (2 X + 3 Y − 5) = 2 MX + 3 MY − 5
QM1_16
182
→
Linearkombinationen
♦ Sind X1 , X2 , . . . , Xm reellwertige Variablen und
a1 , a2 , . . . , am und b Zahlen , so heißt die Variable
m
X
aj X j + b
j=1
auch Linearkombination von X1 , X2 , . . . , Xm
a1 , a2 , . . . , am : Koeffizienten
b : additive Konstante
?
Bildung des Gesamtscores eines Tests
−
aus mehreren Untertests Xj
−
mit unterschiedlichen ‚ Gewichtungen ‘
4
Verschiedener Sprachgebrauch in der Linearen Algebra
B
Die ( fast ) einfachste Möglichkeit , die Xj zu kombinieren
?
Verwendung beispielsweise in ‚ Regressionen ‘
? Gesucht : Linearkombination der Schulnoten , die Studienerfolg
‚ optimal ‘ ‚ vorhersagt ‘
1.3
QM1_16
183
→
•
Mittelwert von Linearkombinationen
M
m
X
!
aj X j + b
j=1
?
=
m
X
aj M (Xj ) + b
j=1
M (X − Y ) = MX − MY
−
X − Y ist Linearkombination von X , Y
−
Koeffizienten : 1 , −1 ; additive Konstante : 0
4
?
‚ Mittelwert der Differenz ist Differenz der Mittelwerte ‘
Behandlung wirkungsvoll ?
Untersuchung der Änderung bei mehreren Vpn
→
Durchschnittliche Änderung ist Änderung der Durchschnitte
→
Allgemein aber :
−
Vorsicht bei der Bildung solcher ‚ Verdrehsätze ‘
→ „ You might just as well say “ added the Dormouse , . . . „ that ‚ I
breathe when I sleep “ ist the same thing as ‚ I sleep when I
breathe ‘ ! “
− Lewis Carroll : Alice’s Adventures in Wonderland :
A Mad Tea-Party
1.3
QM1_16
184
→
Binäre Variable
♦ Eine Variable , die nur die Werte 0 und 1 annimmt , heißt
auch binär
• Ist X binär , so gilt
MX = h(X = 1)
o
n
→
MX = 0 · h(X = 0) + 1 · h(X = 1) = h(X = 1)
Mittelwerte von Funktionen von Variablen
4 Ist f lineare Transformation , so gilt
Mf (X) = f (MX )
?
Gilt das auch für beliebige Funktionen ?
?
f (x) = x2
?
Daten :
X −1 0 1
X2
1 0 1
MX = 0
MX 2 = 2/3
→
Hier also : MX 2 6= (MX )2
→
Mf (X) = f (MX ) gilt also nicht allgemein
1.3
QM1_16
185
4
Der Mittelwert einer Summe ist die Summe der Mittelwerte
?
Gilt Analoges auch für das Produkt ?
?
Miniaturbeispiel :
Vp X Y
XY
1 2 0 2·0=0
2 0 2 0·2=0
MX = 1 , MY = 1 , MXY = 0
→
MXY = MX MY gilt also nicht allgemein
X ≥ 0 bedeutet : xi ≥ 0 für alle i
X ≤ Y bedeutet : xi ≤ yi für alle i
• Ist X ≥ 0 so gilt MX ≥ 0 und
MX = 0
⇔
xi = 0 für alle i
•
Ist X ≤ Y , so auch MX ≤ MY
o
n
(Y − X) ≥ 0
1.3
⇒
MY − MX = MY −X ≥ 0
⇒
MX ≤ MY
QM1_16
186
→
Mittelwert bei Ordinalskalen
♦ Ordinalskalen sind Skalen , bei denen die zulässigen
Skalentransformationen die streng monotonen Funktionen sind
B Bei solchen Transformationen bleibt Ordnung erhalten
−
Ordnung ist hier das einzige Interpretierbare
?
Was macht der Mittelwert bei monotonen Transformationen ?
?
Gegeben : Variable X , die nur nichtnegative Werte annimmt
f (x) = x2 ist dann streng monoton
→
?
Y = X 2 ist also eine gleichberechtigte Skala
2 Gruppen ; Werte in X und Y :
X
Y
?
Gruppe 1
2 3 2
4 9 4
Gruppe 2
1 1 4
1 1 16
Welche Gruppe ist besser ? → Vergleich über Mittelwert
Gruppe 1 : MX = 2 1/3
MY = 5 2/3
Gruppe 2 : MX = 2
MY = 6
→
Für X ist Gruppe 1 besser , für Y Gruppe 2
→
Mittelwert scheint hier nicht besonders sinnvoll
→
Mittelwert bei Ordinaldaten verbieten ?
1.3
QM1_16
187
→
♦
Median : Ein weiteres Maß der zentralen Tendenz
Definition über Verfahren zur Bestimmung :
Ordne Daten aufsteigend nach Größe
→ Der Median ist dann
−
der mittlere Wert ( ungerade Anzahl von Daten )
−
der Mittelwert der beiden mittleren Werte ( gerade Anzahl )
Symbol : M dX
B
Es gibt auch andere Definitionen
?
Daten : 3, 1, 2, 5, 0, 1, 5
Ordnen : 0, 1, 1, 2 , 3, 5, 5
→
?
Median ist 2
Daten : 1, 3, 2, 1, 4, 1
Ordnen : 1, 1, 1 , 2 , 3, 4
→
1.3
Median ist (1 + 2)/2 = 1.5
QM1_16
188
→
Eigenschaften des Medians
• Mindestens 50% der Daten sind ≤ M d und mindestens 50%
sind ≥ M d
→
Median bei monotonen Transformationen
• Ist f monoton auf dem Wertebereich von X , so gilt
M df (X) ≈ f (M dX )
B
Bei ungerader Zahl von Daten gilt ‚ = ‘
o
n
Begründung wird durch Beispiele klar
?
X ≥ 0 und f (x) = x2 , Y = X 2
Ungerade Anzahl von Daten :
?
Daten :
3, 1, 2, 5, 0, 1, 5
Y : 9, 1, 4, 25, 0, 1, 25
geordnet : 0, 1, 1, 2 , 3, 5, 5
Y : 0, 1, 1, 4 , 9, 25, 25
Gerade Anzahl von Daten :
?
Daten :
X : 1, 3, 2, 1, 4, 1
geordnet : X : 1, 1, 1 , 2 , 3, 4
M dX = 1.5
(M dX )2 = 2.25
Y : 1, 9, 4, 1, 16, 1
Y : 1, 1, 1 , 4 , 9, 16
M dY = 2.5
→ Immerhin : (M dX )2 und M dY beide zwischen den beiden
transformierten mittleren X-Werten , in diesem Sinn ‚ ≈ ‘ 1.3
QM1_16
189
→
Median und Mittelwert
4 Median verhält sich ‚ einigermaßen berechenbar ‘ bei monotonen
Transformationen
−
Im Gegensatz zum Mittelwert
→ Median ist für Ordinaldaten ( womöglich ) besseres Maß der
zentralen Tendenz als Mittelwert
→
?
Daten in Extrembereichen
Daten : 1, 7, 500, 4, 3
M = 103
Md = 4
Änderung des ‚ Extremdatums ‘
?
Daten : 1, 7, 200, 4, 3
M = 43
Md = 4
B Median ist weniger anfällig für Schwankungen in
Extrembereichen als Mittelwert
→
Vorteil oder Nachteil : je nach Untersuchungsabsichten
?
Reaktionszeiten
?
Einkommen
1.3
QM1_16
190
→
Median , Mittelwert und Verteilungsform
B Relative Lage von Median und Mittelwert kann Hinweis auf
Verteilungsform geben
− Bei ‚ einigermaßen symmetrischen ‘ Verteilungen sollten
Mittelwert und Median etwa übereinstimmen
−
?
Diskrepanzen geben Hinweise auf Asymmetrie
Beispiel einer asymmetrischen Verteilung mit M und M d :
h
.5
0
.
.......
........
....
...
..
........................................
...
...
...
...
...
...
...
...
...
...
...
.
...
.
...
..
...
.
...
..
...
.
...
..
...
...
.
..
...
...
.
..
..
...
.
........................................
..
...
.
.....................................
..
...
....
.
........................................
...
..
...
...
....
..
.
...
.......................................
.......................................
..
..
..
...
.....................................
....................................................................................................................................................................................................................................................................................................................................................................................................................................................
......
......
.
.
..... .
..... .
....
....
...
...
....
....
x
Md M
♦ Eine Verteilung mit M > M d heißt rechtsschief oder linkssteil
♦ Eine Verteilung mit M < M d heißt linksschief oder rechtssteil
4
1.3
Terminologie uneinheitlich
QM1_16
191
→
Modus : noch ein Maß der zentralen Tendenz
♦ Der häufigste Wert einer Verteilung heißt auch Modus
B
Unter Umständen gibt es mehrere Modi
?
Daten : 2, 4, 3, 2, 3, 6, 4, 5, 3
→
?
Modus ist 3
Daten : 2, 4, 3, 2, 3, 6, 2, 5, 3
→
Modi sind 2 und 3
4
Den Modus kann man auch für qualitative Variablen bilden
→
Perzentile , Quartile
4
Der Wert mit Prozentrang 75 heißt auch 75. Perzentil etc.
Geeignete Konventionen für ‚ Prozentrang ‘ sind nötig
25. Perzentil : 1. Quartil , 75. Perzentil : 3. Quartil
4 Median wird manchmal auch als 2. Quartil = 50. Perzentil
definiert
B
1.3
Andere Definition als die hier verwendete
QM1_16
192
→
Boxplot
Überblick über die Lage der Daten
Vorbereitung : Eine Alternativdefinition der Quartile
−
Nicht ganz äquivalent zu der Definition oben
Defintion über Herstellungsverfahren :
Daten ordnen , in zwei ‚ Hälften ‘ teilen
−
→
?
Ungerade Datenzahl : Mittleren Wert verdoppeln
1. und 3. Quartil : Mediane der beiden ‚ Hälften ‘
Beispiel : gerade Anzahl von Daten :
Daten
1, 7, 3, 2, 5, 8, 2, 6
geordnet
1, 2, 2, 3 , 5 , 6, 7, 8
‚ Hälften ‘
1, 2 , 2 , 3
5, 6 , 7 , 8
Quartile (mit Median)
2
4
6.5
?
Beispiel : ungerade Anzahl von Daten :
1, 7, 3, 2, 5, 8, 2, 6, 9
Daten
geordnet
1, 2, 2, 3, 5 , 6, 7, 8, 9
‚ Hälften ‘
1, 2, 2 , 3, 5
5, 6, 7 , 8, 9
Quartile (mit Median)
2
5
7
1.3
QM1_16
193
→
?
Boxplot , schrittweise
Daten : 2 , 14 , 5 , 4 , 6 , 4 , 5 , 6 , 9 , 11 , 3
1. : Daten mit Box aus Quartilen mit Median
r
r
r
r
r
r
r
r
r
r
r
.......................................................................................................................................................................................................................................................................................................................................................................................................................................................
0
1
x
.......................................................................................................
..
..
..
..
...
..
.........................................................................................................
.....
.....
.....
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.........
.......
.......
....
....
...
...
...
...
...
...
...
..
..
Median
1. Quartil 3. Quartil
2. : Normalbereich :
−
Box um Faktor 1.5 in beide Richtungen vergrößern
3. : Extreme Punkte im Normalbereich markieren ( ‚ Antennen ‘ )
r
r
r
r
r
r
..
..
..
..
..
..
..
..
..
..
..
..
.
..
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........................................................................
..
..
..
..
..
..
..
.
.
...............................................................................................................................................................................................................................................................................................................................................................................
..
..
............................................................
..
..........................................................................................................
..
.
..
..
...
.
........................................................................................................
..
..
.
..
..
r
0
r
r
r
r
x
1
4. : ‚ Ausreißer ‘ als Punkte eintragen
r
r
r
r
r
r
r
r
r
r
r
.......................................................................................................................................................................................................................................................................................................................................................................................................................................................
0
1
r
.........................................................................................................
...............................................................
........................................................................................................
..
.
.
...............................................................................................................
4
Unterschiedliche Konventionen für ‚ Normalbereich ‘
4
Gelegentlich weitere Unterteilung der ‚ Ausreißer ‘
1.3
QM1_16
x
194
→
?
Boxplots zum Gruppenvergleich
Daten aus drei Gruppen ( A , B , C )
A 2, 3, 5, 4, 6, 4, 5, 6, 6, 9, 8, 14
B 1, 7, 9, 6, 8, 12, 9, 9, 16, 7, 8, 16
C 4, 5, 3, 9, 6, 5, 8, 3, 4, 2, 6
→
Zum Vergleich :
−
Originaldaten
−
Boxplots ( jetzt senkrecht )
−
Mittelwert ± Standardabweichung
..
.......
........
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
................................................................................................................................
rr
rr
r
r
r
10
1
rrr
rr
rr
rrr r
rr
rr
r
r
r
r
r
r
r
1.3
10
rr
rr
rr
rr
r
A B C
..
.......
........
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
............
...
...
...
...
...
...
...
...
..
.........................
...
.
..
...
....
.
..
...
...
.
...
...
....
.............
.............
.
...
..
.
..
.......................
...
....
.
.
..
..
...
...
.
....
.
..
..
...
...
...
.
.
.
.
.
...
...
.
.
...
.
.
.
.
.
.
...
.
.
.
...
...................... .....................
...
....
..
..
...
...
...
...
....
...
...........
...
...
...
........................
...
........................
...
...
...
...
...
..
...
...
...
...
.........................
...
...
...
...
...
...
..........................
...
...
...
...
...
..
...
.........................
...
...
...
...
.
.
...
.
.
...
....
....
...
............
............
...
...
...
...
..
................................................................................................................................
1
r
A B C
10
..
.......
........
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.................
...
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
................
...
...
.
..
...
...
.
..
...
...
.
..
...
...
.
..
...
...
.
..
...
................
...
.
..
...
...
...
.
..
...
...
...
.
.
..
...
.
...
.
..
..
...
.
...
.
..
..
...
.
...
.
................
..
...
...
.
..
...
...
.
..
...
...
.
..
...
...
.
..
...
...
.
.
..
...
.
................
...............
...
...
...
...
...
...
...
...
...............................................................................................................................
r
r
1
r
A B C
QM1_16
195
→
Kenngrößen für quantitative Variablen
→
Maße der Datenvariabilität
?
→
Wie stark ‚ streuen ‘ die Daten ?
Varianz , Streuung
♦ Liefern n Vpn in Variable X die Werte x1 , . . . , xn mit
Mittelwert MX , so heißt
2
SX
n
1 X
:=
( xi − MX )2
n i=1
die Varianz von X , und
SX
q
2
:=
SX
die Streuung oder Standardabweichung von X
→
2
Statt SX
gelegentlich auch : V (X)
Die Varianz ist ein Mittelwert :
2
SX
= M ((X − MX )2 )
→
Die Eigenschaften des Mittelwerts können verwendet werden
B
Varianz ist mittlere quadrierte Abweichung vom Mittelwert
1.3
QM1_16
196
4
?
−
?
Begriff ist zunächst nicht besonders intuitiv
Warum nicht einfach mittlere Abweichung vom Mittelwert ?
Die mittlere Abweichung vom Mittelwert ist immer 0
Warum nicht mittlere absolute Abweichung vom Mittelwert :
n
1 X
| xi − MX |
n i=1
‚ m.a.A.‘ ( vom Mittelwert )
−
Damit kann man nicht so leicht rechnen
−
Angemessener hierbei übrigens : Median statt Mittelwert
4
Vorteil der Varianz : Enger Zusammenhang mit Kovarianz
→
Alternative Berechnung :
•
o
n
2
SX
= MX 2 − (MX )2
2
SX
= M ( (X − MX )2 )
= M ( X 2 − 2 MX X + MX2 )
= M ( X 2 ) − M (2 MX X ) + (MX )2
= M ( X 2 ) − 2 MX M ( X ) + (MX )2
= M ( X 2 ) − 2 (MX )2 + (MX )2
= M ( X 2 ) − (MX )2
1.3
QM1_16
197
→
Eigenschaften der Varianz
2
≥ 0
SX
•
→
Folgerung :
M (X 2 ) ≥ (MX )2
•
o
n
2
= 0
SX
⇔
Alle Daten gleich
Alle Daten sind gleich ( nämlich MX )
⇔
Alle Daten gleich MX
Die Summanden (xi − MX )2 sind alle ≥ 0
•
2
2
SaX+b
= a2 SX
,
SaX+b = |a| SX
2
SaX+b
= M (((aX + b) − M (aX + b))2 )
o
n
= M ((aX + b − (aMX + b))2 )
= M ((aX + b − aMX − b)2 )
= M ((a(X − MX ))2 ) = M (a2 (X − MX )2 )
2
= a2 M ((X − MX )2 ) = a2 SX
SaX+b
4
?
1.3
√
q
q
2
2 = |a| S
=
SaX+b =
a2 SX
X
a2 ist |a| , nicht unbedingt a
( Beispiel : a = (−5) ! )
Varianz von 1001, 1002, 1003 ist Varianz von 1, 2, 3
QM1_16
198
•
Die Varianz einer binären Variable X mit h := h(X = 1) ist
2
SX
= h (1 − h)
o
n
Hier ist X 2 = X , daher
2
SX
= M (X 2 ) − (MX )2 = h − h2 = h (1 − h)
?
2
2
+ SY2 ?
= SX
Gilt vielleicht SX+Y
?
Miniatur-Gegenbeispiel :
Vp X Y X + Y
1 0 2
2
2
2 2 0
→
2
2
SX
= SY2 = 1 , aber SX+Y
= 0
→
Streuung und m.a.A. vom Mittelwert ( ‚ A ‘ ) :
4
Es gilt immer : A ≤ SX
4
Eine Umkehrung der Form SX ≤ K · A gilt für kein K
→
Mittelwert ± Streuung :
S
M
S
.
.
.....
...
......................................................................................................................................................................................................................................................................
....
....
4
−
1.3
t
Entweder : Alle Daten liegen ‚ auf dem Rand ‘
Oder : Es gibt Daten sowohl ‚ außerhalb ‘ als auch ‚ innerhalb ‘
QM1_16
199
→
?
−
Markoffsche Ungleichung
5 Bekannte verdienen durchschnittlich 3 000
Einer davon verdient 20 000
!
Geht nicht !
•
Ist X ≥ 0 und K > 0 , so gilt
h(X ≥ K) ≤
4
−
?
Markoffsche Ungleichung
Eigentlich eine ganze ‚ Familie ‘ von Ungleichungen
Für jedes K eine
Verdienstbeispiel ( X : Verdienst ) : Setze K = 20 000
h(X ≥ 20 000) ≤
→
1.3
MX
K
3 000
= .15
20 000
Das entspricht höchstens .15 · 5 = .75 Personen !
QM1_16
200
•
Ist X ≥ 0 und K > 0 , so gilt
h(X ≥ K) ≤
MX
K
Definiere neue Variable Y durch

 K falls X ≥ K
Y :=
 0 falls X < K
o
n
?
Ein Beispiel mit K = 5 :
X 1 4 7 11 3 9 2
Y 0 0 5 5 0 5 0
Y ≤ X
MY ≤ MX
MY = 0 · h(Y = 0) + K · h(Y = K) = K · h(X ≥ K)
K · h(X ≥ K) = MY ≤ MX
→
1.3
h(X ≥ K) ≤
MX
K
QM1_16
201
→
•
Eine Umformulierung
( ‚ komplementäre Aussage ‘ )
Ist X ≥ 0 und K > 0 , so gilt
h(X < K) ≥ 1 −
MX
K
h(X < K) + h(X ≥ K) = 1
o
n
h(X < K) = 1 − h(X ≥ K)
→
?
h(X < K) = 1 − h(X ≥ K) ≥ 1 −
MX
K
Verdienstbeispiel ( X : Verdienst ) :
−
?
5 Personen verdienen im Durchschnitt 3 000
Setze K = 8 000
3 000
5
=
8 000
8
5
25
Das entspricht mindestens · 5 =
= 3.125 Personen
8
8
h(X < 8 000) ≥ 1 −
→
1.3
Mindestens 4 verdienen weniger als 8 000
QM1_16
202
→
Tschebyscheffsche Ungleichung
• Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so
gilt für jedes k > 0 die Beziehung
h( |X − MX | ≥ k SX ) ≤
1
k2
Tschebyscheffsche Ungleichung
4
−
B
−
?
Wieder eine ganze Familie von Ungleichungen
für jedes k eine
Abschätzung der Häufigkeit von Werten ‚ weit weg ‘ von MX
‚ Weit weg ‘ : in Streuungseinheiten
k = 2:
.................................
S
M
S
................................
.
....
...
.
. . . . . . . . . . . . . . .......................................................................................................................... . . . . . . . . . . . . . .
...
...
→
?
t
Höchstens 25% der Daten im schwarzen Bereich ( mit Rand )
k = 10 :
....................
....................
....
....
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
...
...
.
.
→
1.3
t
Höchstens 1% der Daten im schwarzen Bereich ( mit Rand )
QM1_16
203
• Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so
gilt für jedes k > 0 die Beziehung
h( |X − MX | ≥ k SX ) ≤
1
k2
Setze Y := (X − MX )2
o
n
2
Dann : MY = SX
Ferner : Y ≥ 0
Markoffsche Ungleichung mit Y
−
und k 2 MY an Stelle des dortigen K
h(Y ≥ k 2 MY ) ≤
MY
1
=
k 2 MY
k2
2
Y ≥ k 2 MY ⇔ (X − MX )2 ≥ k 2 SX
⇔ |X − MX | ≥ k SX
→
1.3
h(|X − MX | ≥ k SX ) ≤
1
k2
QM1_16
204
→
Eine Umformulierung
( ‚ komplementäre Aussage ‘ )
• Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so
gilt für jedes k > 0 die Beziehung
1
h( |X − MX | < k SX ) ≥ 1 − 2
k
h( |X − MX | < k SX ) + h( |X − MX | ≥ k SX ) = 1
o
n
h( |X − MX | < k SX ) = 1 − h( |X − MX | ≥ k SX )
1 − h( |X − MX | ≥ k SX ) ≥ 1 −
→
h( |X − MX | < k SX ) ≥ 1 −
1
k2
1
k2
Abschätzung der Häufigkeit von Werten ‚ nahe bei ‘ MX
B
−
?
‚ Nahe bei ‘ : in Streuungseinheiten
k = 2:
..............................S..........M..t.........S...............................
....
....
....
....
......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
...
...
...
...
.
.
.
.
→
?
Mindestens 75% der Daten im schwarzen Bereich ( ohne Rand )
k = 10 :
....................................................t..................................................
....
....
....
....
.................................................................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..................................................................
..
..
...
...
.
..
.
..
→
1.3
Mindestens 99% der Daten im schwarzen Bereich ( ohne Rand )
QM1_16
205
B
Tschebyscheffsche Ungleichung stiftet Beziehung zwischen
−
Streuung einerseits
−
relativen Häufigkeiten von Daten andererseits
→
Eine Klärung des ‚ unintuitiven ‘ Streuungsbegriffs
→
Tschebyscheffsche Ungleichung ‚ absolut ‘ :
• Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so
gilt für jedes K > 0 die Beziehung
2
SX
h( |X − MX | ≥ K) ≤
K2
o
n
Setze in der Original-Ungleichung K/SX für k ein
→
‚ Komplementär ‘ dazu :
• Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so
gilt für jedes K > 0 die Beziehung
2
SX
h( |X − MX | < K) ≥ 1 − 2
K
1.3
QM1_16
206
→
Z-Transformation
♦ Ist X Variable mit Mittelwert MX und Streuung SX > 0 , so
heißt die Variable
X − MX
ZX :=
SX
auch z-Transformierte von X . Für einen möglichen Wert x
heißt
zx :=
x − MX
SX
auch der zu x gehörende z-Wert.
B
?
Der z-Wert zx von x gibt an ,
−
wie weit x von MX entfernt ist
−
gemessen in Standardabweichungen
−
Richtung entspricht Vorzeichen
Mit MX = 5 und SX = 2 gilt für x = 8
8−5
3
=
= 1.5
2
2
z8 =
S
M
S
4
5
6
..
...
....................................................................................................................................................
..................................................................................................................
..
..
...
...
−1
1.3
0
1
2
3
t
t
7
8
9
x
QM1_16
207
→
?
?
Umgekehrt :
Mit MX = 5 und SX = 2 gilt für ein x : zx = −2
x = ?
S
M
S
4
5
6
..
..
...
..
.................................................................................................................................
..................................................................................................................................................
....
....
t
−1
→
0
1
3
7
8
9
x
Lösung gleich allgemein :
x − MX
SX
zx =
?
2
t
⇒
x = SX zx + MX
Im Beispiel :
x = 2 · (−2) + 5 = 1
→
z-Transformation : Verwenden einer neuen Skala :
−3
−2
−1
.
0
1
.................................t..............................
2
z
9
x
2
z
9
x
..
..
..
.
.
.
..................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
−1
0
1
2
3
4
5
6
7
8
Noch enger :
−3
−2
.
...
..
−1
1.3
−1
.
.............................0..t..........................1..
.
...
..
0
1
2
3
.
...
..
4
5
6
7
.
...
..
8
QM1_16
208
→
Eigenschaften von ZX
B
ZX entsteht aus X durch eine lineare Transformation :
ZX =
→
1
MX
X − MX
=
X −
SX
SX
SX
ZX hat die Form a X + b
−
→
a = 1/SX , b = −MX /SX
Kennwerte von ZX
•
MZX = 0 ,
MZX =
o
n
MX
1
MX −
= 0
SX
SX
SZ2 X =
4
1 2
2 SX = 1
SX
Mittelwert und Varianz von ZX sind ‚ einfachstmöglich ‘
−
1.3
SZ2 X = 1
‚ Standardisierung ‘
QM1_16
209
→
Vergleiche mit Hilfe von z-Werten
?
A erreicht in Klausur 1 18 Punkte
−
B erreicht in Klausur 2 15 Punkte
?
Wer ist besser ?
????
Zusatzinformation : Kennwerte der Klausuren
−
Klausur 1 : Mittelwert : 16 ,
Streuung : 4
−
Klausur 2 : Mittelwert : 14 ,
Streuung : 1
z-Werte : A : .5 ,
B: 1
→
( Mit aller Vorsicht ) B ist besser
B
Voraussetzung für derartige Vergleiche :
−
4
1.3
Die Klausurgruppen sind leistungsmäßig etwa gleich
Vgl. : Vergleiche über Prozentränge
QM1_16
210
→
Weitere Maße der Datenvariabilität
Mittlere absolute Abweichung :
n
1 X
| xi − MX |
n i=1
−
−
−
Passender vielleicht : M d statt M
Interquartilabstand
3. Quartil − 1. Quartil
Range
Größter Wert − kleinster Wert
B
Boxplot veranschaulicht Interquartilabstand und Range
4
2
Manchmal verwendet man statt SX
als ‚ Varianz ‘ auch
s2X
4
!
1.3
n
1 X
:=
(xi − MX )2
n − 1 i=1
Rechtfertigung : Inferenzstatistik
Aufpassen bei Taschenrechner oder Statistikprogrammen !
QM1_16
211
→
Kovarianz , Korrelation
♣
Zwei Variablen X und Y in derselben Stichprobe erhoben
−
Anzahl der Vpn : n
−
Jede Vp i liefert zwei Werte : xi für X und yi für Y
−
Mittelwerte : MX und MY
−
2
und SY2
Varianzen : SX
♦ In dieser Situation heißt die Zahl
KovX,Y
n
1 X
:=
(xi − MX )(yi − MY )
n i=1
auch Kovarianz von X und Y
♦ Sind SX und SY beide 6= 0 , so heißt die Zahl
rX,Y :=
KovX,Y
SX SY
auch Korrelation von X und Y
4
Ist SX oder SY gleich 0 , so ist rX,Y nicht definiert
♣
Generelle Voraussetzung , wenn von Korrelation die Rede ist :
−
1.3
SX und SY sind 6= 0
Manchmal KovXY und rXY statt KovX,Y und rX,Y
QM1_16
212
→
Datendarstellung
Datendarstellung als Punktwolke
−
Zusätzlich : Zentroid : ( MX , MY )
Y 9
8
7
6
5
4
3
2
1
0
.....
..........
...
....
..
...
...
...
...
...
...
...
...
...
...
...
...
...
.....
...
.....
.....
...
.....
...
.....
.....
...
.....
...
.....
...
.....
.
...
...
...
...
...
...
...
...
...
...
...
...............................................................................................................................................................................................
r
r
r
r
ad r
r
r
r
r
(MX , MY )
r
0 1 2 3 4 5 6 7 8 9
X
4
Das Zentroid kann als ‚ Schwerpunkt ‘ betrachtet werden
Dem Verständnis förderlich :
−
Einteilung der Ebene in 4 Quadranten I–IV
.
...
........
........
....
..
....
...
...
...
...
...
...
...
...
...
..
...
...
...
...
...
..
...
...
...
.
...
...
...
...
...
..
...
..
..............................................................................................................................................................................
....
....
...
...
..
...
...
...
...
...
...
...
...
...
..
...
...
...
...
...
..
...
....
...
..
...
...
...
..
...
..
...
.............................................................................................................................................................................................
..
......
..
....
.
Y 9
8
7
6
5
4
3
2
1
0
II
r
I
r
r
r
ad r
r
r
r
r
III
r
IV
0 1 2 3 4 5 6 7 8 9
X
1.3
QM1_16
213
→
Beiträge zur Kovarianz
KovX,Y
n
1 X
(xi − MX )(yi − MY )
:=
n i=1
.
..
.......
...
.........
..
....
....
...
..
...
..
...
...
...
..
...
...
...
...
...
...
...
...
...
..
...
...
...
...
...
..
...
...
..
...
..............................................................................................................................................................................
..
....
...
...
...
...
...
...
..
...
....
...
..
...
...
...
..
...
...
...
...
...
...
...
...
...
..
...
...
...
...
...
..............................................................................................................................................................................................
..
....
..
...
.
Y
II
I
q
q
q
q
ad q
q
q
q
q
III
q
IV
X
Beiträge ≥ 0 in I und III
−
Beiträge ≤ 0 in II und IV
Betragsmäßig große Beiträge durch Punkte ‚ weit im Innern ‘
Viele Punkte ‚ weit ‘ in I und III , wenige in II und IV
→
große positive Kovarianz
Viele Punkte ‚ weit ‘ in II und IV , wenige in I und III
→
→
−
1.3
große negative Kovarianz
Kovarianz gibt Hinweis auf Form der Punktwolke
wenigstens in ‚ gutartigen ‘ Fällen
QM1_16
214
→
→
Kovarianz als Mittelwert :
KovX,Y
n
1 X
(xi − MX )(yi − MY )
=
n i=1
= M ((X − MX )(Y − MY ))
→
•
o
n
Alternative Rechnung :
KovX,Y = MXY − MX MY
KovX,Y = M ((X − MX )(Y − MY ))
= M (XY − MX Y − MY X + MX MY )
= M (XY ) − M (MX Y ) − M (MY X) + MX MY
= MXY − MX MY − MY MX + MX MY
= MXY − MX MY
1.3
QM1_16
215
→
Berechnung von MXY auf Grund einer Kontingenztafel
Mögliche Werte von X und Y : x1 . . . xI , y1 . . . yJ
!
Achtung : hier : geänderte Bedeutung von ‚ xi ‘ , ‚ yj ‘
Häufigkeiten der Kombination xi , yj :
−
→
nij ( absolut ) hij ( relativ )
MXY
I
J
I X
J
X
1 XX
nij
=
nij xi yj =
x i yj
n i=1 j=1
n
i=1 j=1
=
I X
J
X
hij xi yj
i=1 j=1
→
−
Spezialfall :
X und Y sind ( in der Stichprobe ) unabhängig
Dann : hij = hi. h.j
MXY =
I X
J
X
hij xi yj =
i=1 j=1
=
I
X
J
I X
X
hi. h.j xi yj
i=1 j=1
!
hi. xi
i=1
J
X
!
h.j yj
= MX MY
j=1
• Sind X und Y ( in der Stichprobe ) unabhängig , so gilt
MXY = MX MY
1.3
QM1_16
216
→
Eigenschaften
−
in vielen kleinen Schritten
−
Z etc. : Weitere in der Stichprobe erhobene Variable
KovX,Y = 0 , falls X und Y unabhängig sind
(a)
o
n
Dann : MXY = MX MY
→ KovX,Y = MXY − MX MY = MX MY − MX MY = 0
!
Umkehrung gilt nicht :
−
4
Aus KovX,Y = 0 folgt nicht die Unabhängigkeit
Aussagen passen eher auf die theoretische Ebene
KovX,Y = KovY,X
(b)
KovX+Z, Y = KovX,Y + KovZ,Y
(c)
o
n
M(X+Z)Y = MXY +ZY = MXY + MZY
M(X+Z) MY = (MX + MZ )MY = MX MY + MZ MY
KovX+Z, Y = M(X+Z)Y − M(X+Z) MY
= MXY + MZY − (MX MY + MZ MY )
= MXY − MX MY + MZY − MZ MY
= KovX,Y + KovZ,Y
4
1.3
KovX+Z, Y = KovX,Y + KovZ,Y : Wie ‚ Ausmultiplizieren ‘
QM1_16
217
KovX, Y +Z = KovX,Y + KovX,Z
(d)
o
n
Begründung : entweder analog zu (c) oder
(b)
(c)
KovX, Y +Z = KovY +Z, X = KovY,X + KovZ,X
(b)
= KovX,Y + KovX,Z
4 Beweistechnik : ‚ Transport ‘ einer für das erste Argument von
Kov bewiesenen Tatsache auf das zweite Argument
4
Dabei : Argumente von KovX,Y : X und Y
Auch hier : Analogie zum ‚ Ausmultiplizieren ‘
KovaX+b, Y = a KovX,Y
(e)
o
n
M(aX+b)Y = MaXY +bY = a MXY + b MY
M(aX+b) MY = (aMX + b)MY = a MX MY + b MY
KovaX+b, Y = M(aX+b)Y − MaX+b MY
= a MXY + b MY − (a MX MY + b MY )
= a MXY − a MX MY
= a ( MXY − MX MY ) = a KovX,Y
1.3
4
‚ Ausklammern ‘ von a
4
Konstante b fällt weg
QM1_16
218
KovX, cY +d = c KovX,Y
(f )
o
n
Analog (e) oder mit (e) und (b) wie bei (d)
4
‚ Ausklammern ‘ von c , Konstante d fällt weg
KovaX+b, cY +d = ac KovX,Y
(g)
o
n
Nacheinander (e) und (f )
2
= KovX,X
SX
(h)
4 Wesentlicher Vorzug der Varianz als Variabilitätsmaß :
−
Zusammenhang mit der Kovarianz
−
Kovarianzeigenschaften können genutzt werden
→
Vgl. die folgenden Eigenschaften
2
2
SX+Y
= SX
+ SY2 + 2 KovX,Y
(i)
o
n
(h)
(c)
2
SX+Y
= KovX+Y, X+Y = KovX,X+Y + KovY,X+Y
(d)
= KovX,X + KovX,Y + KovY,X + KovY,Y
(b)
= KovX,X + KovY,Y + KovX,Y + KovX,Y
(h)
2
= SX
+ SY2 + 2 KovX,Y
4
1.3
Assoziation : Binomische Formel
QM1_16
219
2 2
2
2 2
SaX+bY
+c = a SX + b SY + 2 ab KovX,Y
(j)
(i)
2
2
2
2
SaX+bY
+c = SaX+bY = SaX + SbY + 2 KovaX, bY
o
n
(g)
2
= a2 SX
+ b2 SY2 + 2 ab KovX,Y
4
?
Assoziation : Binomische Formel
Spezialfall :
2
2
+ SY2 − 2 KovX,Y
= SX
SX−Y
KovX,Y = rX,Y SX SY
(k)
rX,Y = rY,X
(l)
o
n
(b)
(
raX+b, cY +d =
(m)
raX+b, cY +d =
o
n
B
rX,Y
falls ac > 0
−rX,Y
falls ac < 0
KovaX+b, cY +d
SaX+b ScY +d
=
ac KovX,Y
|a| SX |c| SY
=
ac
KovX,Y
ac
·
=
rX,Y
|a| |c| SX SY
|ac|
(g)
Bei linearen Transformationen von X und Y :
−
1.3
höchstens Vorzeichenwechsel der Korrelation
QM1_16
220
rX,Y = rZX ,ZY = KovZX ,ZY
(n)
rZX ,ZY = rX,Y :
o
n
−
(m) , (1/SX )(1/SY ) > 0
rZX ,ZY = KovZX ,ZY :
SZX = SZY = 1
rX,Y ≤ 1
(o)
⇔
rX,Y = 1
(∗)
Y = aX + b
für ein a > 0
(j)
0 ≤ SZ2 X −ZY = SZ2 X + SZ2 Y − 2 KovZX , ZY
o
n
(n)
= 1 + 1 − 2 rX,Y = 2 − 2 rX,Y
rX,Y ≤ 1
→
‚ = ‘ : ‚ ⇒ ‘ : Gelte also rX,Y = 1
Dann muss ‚ = ‘ bei (∗) gelten
ZX − ZY = c (konstant)
ZY = ZX − c
Y /SY − MY /SY = X/SX − MX /SX − c
→
Y = (SY /SX ) X + . . . (additive Konstante)
‚ = ‘ : ‚ ⇐ ‘ : Gelte also Y = aX + b mit a > 0
→
(m)
rX,Y = rX,aX+b = rX,X
2
KovX,X (h) SX
= 2 = 1
=
SX SX
SX
1.3
QM1_16
221
rX,Y ≥ −1
(p)
rX,Y = −1
o
n
⇔
Y = aX + b
für ein a < 0
Wie (o) mit ZX + ZY statt ZX − ZY
−1 ≤ rX,Y ≤ 1
(q)
rX,Y = ±1
⇔
Y = aX + b
für ein a 6= 0
Vorzeichen von r dann gleich Vorzeichen von a
−
o
n
X , Y unabhängig ⇒ rX,Y = 0
(o) , (p) , (a)
| KovX,Y | ≤ SX SY
(r)
−
−
‚ = ‘ genau bei ‚ perfektem linearen Zusammenhang ‘
‚ Perfekter linearer Zusammenhang ‘ :
Y = aX + b
oder
X = aY + b
(q)
| KovX,Y |
= | rX,Y | ≤ 1
SX SY
o
n
Behauptung dann mit (q)
Leichte Zusatzüberlegungen :
−
Behauptung gilt auch für SX = 0 oder SY = 0
1.3
QM1_16
222
(s) Die Variablen X und Y seien binär mit Kontingenztafel
X\Y 0 1
0
h11 h12 h1.
1
h21 h22 h2.
h.1 h.2 1
→
Dann gilt :
KovX,Y = h11 h22 − h12 h21
KovX,Y = MXY − MX MY = h22 − h2. h.2
o
n
= h22 − (h21 + h22 ) (h12 + h22 )
= h22 − h21 h12 − h21 h22 − h22 h12 − h222
= h22 (1 − h21 − h12 − h22 ) − h21 h12
= h22 h11 − h21 h12
(t) Sind X und Y binär , so gilt
rX,Y =
o
n
1.3
(s)
h11 h22 − h12 h21
√
,
h1. h2. h.1 h.2
( ‚ r2 = ϕ2 ‘ : Übung )
2
rX,Y
= ϕ2
QM1_16
223
(u) Ist X = a1 X1 + a2 X2 + b und Y = c1 Y1 + c2 Y2 + d , so gilt
KovXY = a1 c1 KovX1 Y1 + a1 c2 KovX1 Y2 + a2 c1 KovX2 Y1 + a2 c2 KovX2 Y2
o
n
(c) , (d) , (g)
4
Assoziation : ‚ Ausmultiplizieren ‘
4
Additive Konstanten fallen weg
B
Rechenschema ( mit kij := KovXi Yj ) :
a1
a2
c1 c2
k11 k12
k21 k22
Zahlen in ‚ Matrix ‘ mit Zahlen am Rand multiplizeren
→
4
Aufsummieren
Einführung von Abkürzungen :
!
k11 k12
K =
, a =
k21 k22
a1
a2
!
,
c =
c1
c2
!
Abkürzende Schreibweise :
KovX,Y = a0 Kc
B
1.3
( Matrizenrechnung )
QM1_16
224
(v) Ist X =
I
X
ai Xi + b und Y =
i=1
J
X
cj Yj + d , so gilt
j=1
KovXY =
I X
J
X
ai cj KovXi Yj
i=1 j=1
o
n
Verallgemeinerung von (u)
4
Kovarianz von zwei Linearkombinationen
Ausführliche Schreibweise :
Kov
I
X
ai X i + b ,
i=1
!
cj Yj + d
=
J
I X
X
ai cj KovXi Yj
i=1 j=1
j=1
4
Wieder Assoziation ‚ Ausmultiplizieren ‘
4
Rechenschema , ‚ Matrizenschreibweise ‘ :
−
wie im ‚ (2 × 2)-Fall ‘
4
Rechenschema : Eher zur Veranschaulichung der Aufgabe
B
Praktisches Rechnen : u.U. anders gruppieren , z.B. :
I X
J
X
i=1 J=1
1.3
J
X
ai cj KovXi Yj =
I
X
i=1
ai
J
X
!
cj KovXi Yj
j=1
QM1_16
225
(w) Ist U =
m
X
ai Xi + b und V =
i=1
m
X
ci Xi + d , so gilt
i=1
KovU V =
m X
m
X
ai cj KovXi Xj
i=1 j=1
o
n
Spezialfall von (v)
4
Wieder : Kovarianz von zwei Linearkombinationen
−
Hier speziell : Linearkombinationen derselben Xi
B
Beachte : Ein Index muss umbenannt werden
4
Beachte :
−
2
KovXi Xi = SX
i
−
KovXi Xj = KovXj Xi
→
Spezialfall : V = U
SU2
=
m
X
i=1
2
a2i SX
i
+ 2
X
ai aj KovXi Xj
i<j
4
Zusammenfassend zu den Eigenschaften der Kovarianz :
→
Viele Formulierungen sind nun ‚ redundant ‘
?
1.3
(c) , (d) , (e) , (f ) , (g) , (u) , (w) : alle in (v) enthalten
QM1_16
226
→
?
Kovarianzmatrizen , Korrelationsmatrizen
In einer Miniaturstichprobe werden drei Variablen erhoben
Vp X1 X2 X3
1 8 3 2
2 7 8 0
3 8 3 2
4 10 5 0
5 −5 2 0
6 8 3 2
Berechnung von Varianzen und Kovarianzen
→
Zweckmäßigerweise übersichtliche Anordnung in einer ‚ Matrix ‘ :


25 4 2


 4 4 −1
2 −1 1
In Zeile i , Spalte j : KovXi Xj
→
Kovarianzmatrix
2
In der ‚ Diagonale ‘ : KovXi Xi = SX
i
Es gilt : KovXi Xj = KovXj Xi
1.3
Die Matrix ist symmetrisch
QM1_16
227
♦ Sind m Variablen X1 , . . . Xm in
worden , so heißt die Matrix

KovX1 X1 KovX1 X2
 Kov
X2 X1 KovX2 X2


..
..

.
.
KovXm X1 KovXm X2
einer Stichprobe erhoben

. . . KovX1 Xm
. . . KovX2 Xm 


..
...

.
. . . KovXm Xm
auch Kovarianzmatrix von X1 , . . . Xm
B
In der Diagonale stehen die Varianzen
Kovarianzmatrix ist daher

2
SX
KovX1 X2
1
 Kov
2
SX
X2 X1

2

.
.
.
.

.
.
KovXm X1 KovXm X2
4
−

. . . KovX1 Xm
. . . KovX2 Xm 


..
...

.
2
...
SX
m
Wegen KovXi Xj = KovXj Xi :
Kovarianzmatrizen sind symmetrisch
4 Kovarianzmatrix spielen zentrale Rolle in der
Multivariaten Statistik
! Manchmal enthalten ‚ Kovarianzmatrizen ‘ die ‚ korrigierten
Stichprobenkovarianzen ‘ statt der Kovarianzen
−
1.3
Division durch (n − 1) statt durch n
QM1_16
228
♦ Sind m Variablen X1 , . . . Xm in einer Stichprobe erhoben
worden , so heißt die Matrix


rX1 X1 rX1 X2 . . . rX1 Xm
r

 X2 X1 rX2 X2 . . . rX2 Xm 
 ..
..
.. 
...
 .
.
. 
rXm X1 rXm X2 . . . rXm Xm
auch Korrelationsmatrix von X1 , . . . Xm
In der Diagonale stehen Einsen ( rXi Xi ist immer 1 )
B
Korrelationsmatrix ist daher

1
rX1 X2
r
1
 X2 X1
 ..
..
 .
.
rXm X1 rXm X2

. . . rX1 Xm
. . . rX2 Xm 

.. 
...
. 
...
1
4
Korrelationsmatrizen sind symmetrisch
4
Es gibt auch noch die ‚ SSCP-Matrizen ‘
−
?
Vorstufe zu Kovarianzen : Keine Division durch n
‚ Sum of Squares and Cross Products ‘
Kovarianz- , Korrelations


25 4 2
1



 4 4 −1
.4
2 −1 1
.4
1.3
und SSCP-Matrix im Beispiel :



.4 .4
150 24 12



1 −.5
 24 24 −6
−.5 1
12 −6 6
QM1_16
229
Kennwerte von Zufallsvariablen.
4
Analoge Begriffsbildungen wie in Deskriptiver Statistik
?
Theoretische Gegenstücke zu Mittelwert , Varianz , . . .
B
Formal analoge Eigenschaften
→
Erwartungswert
♦ Ist X : Ω → R eine reelle Zva auf einem endlichen W-Raum
< Ω, P > mit W-Funktion f , so heißt die Zahl
X
E(X) :=
X(ω) f (ω)
ω∈Ω
auch Erwartungswert von X
Symbol für Erwartungswerte : Oft µ
?
Gewinnspiel mit fairem Würfel , X ; ‚ Nettogewinn ‘
−
X : 1 7→ 0 ,
→ E(X) = 0 ·
2, 3, 5 7→ 2 ,
4, 6 7→ −3
1
1
1
1
1
1
+ 2 · + 2 · + (−3) · + 2 · + (−3) ·
6
6
6
6
6
6
= 0
4
1.4
Rechnung womöglich etwas umständlich (?)
QM1_16
230
?
−
Dasselbe Gewinnspiel :
X : 1 7→ 0 ,
2, 3, 5 7→ 2 ,
4, 6 7→ −3
Jetzt aber mit gezinktem Würfel : W-Funktion :
−
f : 1, 2, 3, 4, 5 7→ .1 ,
6 7→ .5
→ E(X) = 0 · (.1) + 2 · (.1) + 2 · (.1) + (−3) · (.1) + 2 · (.1) + (−3) · (.5)
= −1.2
B
−
4
Hier ist E(X) kein möglicher Wert
Also auch keiner , den man erwarten kann
Erwartungswert ist so etwas wie Durchschnitt auf lange Sicht
Führe Experiment sehr oft durch ( N Mal )
Häufigkeit des Ergebnisses ω : etwa N f (ω)
→
Mittelwert der Werte von X dann
X
1 X
X(ω) N f (ω) =
X(ω) f (ω) = E(X)
MX ≈
N
ω∈Ω
→
1.4
ω∈Ω
Das erste Gewinnspiel ist ‚ fair ‘ , das zweite nicht
‚ Fair ‘ : Erwartungswert des Nettogewinns ist 0
QM1_16
231
→
•
Alternative Berechnung
X
E(X) =
x P(X = x) =
E(X) =
X
X(ω)f (ω) =
X X
x
ω∈Ω
=
X x
x
=
X
f (ω)
x fX (x)
X(ω)f (ω)
ω∈Ω
X(ω)=x
=
X
x P(X = x)
x
ω∈Ω
X(ω)=x
X
xfX (x)
x
x
o
n
X
x
?
Gewinnspiel mit unfairem Würfel :
x
−3 0 2
fX (x) .6 .1 .3
→
E(X) =
X
x fX (x)
x
= (−3) · (.6) + 0 · (.1) + 2 · (.3) = −1.2
4
−
E(X) ist gewichtetes Mittel der Werte von X
Gewichte : Werte der W-Funktion fX
4
Vgl. Formel für Mittelwert mit relativen Häufigkeiten
P
− M =
wj hj
−
1.4
Relative Häufigkeiten
↔
Wahrscheinlichkeiten
QM1_16
232
→
?
Erwartungswert von Funktionen von X
2
E(X ) =
X
X 2 (ω) f (ω)
ω∈Ω
?
−
Gewinnspiel mit gezinktem Würfel , Gewinn X :
X : 1 7→ 0 ,
2, 3, 5 7→ 2 ,
4, 6 7→ −3
W-Funktion :
−
f : 1, 2, 3, 4, 5 7→ .1 ,
6 7→ .5
→ E(X 2 ) =
02 · (.1) + 22 · (.1) + 22 · (.1) + (−3)2 · (.1) + 22 · (.1) + (−3)2 · (.5)
= 0 + .4 + .4 + .9 + .4 + 4.5 = 6.6
→
Allgemein :
E(h(X)) =
X
h(X(ω)) f (ω)
ω∈Ω
4
1.4
Hierbei braucht X nicht reellwertig zu sein
QM1_16
233
→
•
Alternativschreibweise mit fX
E(h(X)) =
X
h(x) fX (x) =
X
x
x
o
n
E(h(X)) =
X
h(X(ω))f (ω) =
X X
x
ω∈Ω
=
X h(x)
x
=
X
h(x) P(X = x)
X
f (ω)
ω∈Ω
X(ω)=x
=
X
h(x) P(X = x)
x
ω∈Ω
X(ω)=x
h(x) fX (x)
h(X(ω))f (ω)
x
?
Gewinnspiel mit unfairem Würfel :
x
−3 0 2
fX (x) .6 .1 .3
→
E(X 2 ) =
X
x2 fX (x)
x
= (−3)2 · (.6) + 02 · (.1) + 22 · (.3)
= 5.4 + 0 + 1.2 = 6.6
1.4
QM1_16
234
→
Regeln
4
Analog zu Regeln über den Mittelwert
•
o
n
Ist X(ω) = c für alle ω ∈ Ω , so gilt E(X) = c
E(X) =
X
c f (ω) = c
o
n
f (ω) = c · 1 = c
ω∈Ω
ω∈Ω
•
X
E (a X + b) = a E(X) + b
E (a X + b ) =
X
=
X
(a X(ω) + b) f (ω)
ω∈Ω
a X(ω) f (ω) +
ω∈Ω
= a
X
X
ω∈Ω
X(ω) f (ω) + b
ω∈Ω
= a E(X) + b
•
o
n
b f (ω)
X
f (ω)
ω∈Ω
E (X ± Y ) = E(X) ± E(Y )
E (X ± Y ) =
X
=
X
(X(ω) ± Y (ω)) f (ω)
ω∈Ω
X(ω) f (ω) ±
ω∈Ω
= E(X) ± E(Y )
1.4
X
Y (ω) f (ω)
ω∈Ω
QM1_16
235
→
Regeln
m
X
E
•
!
aj X j + b
=
j=1
m
X
aj E(Xj ) + b
j=1
o
n
Geeignete Kombination früherer Regeln
•
Ist X binär , P(X = 1) = p , so E(X) = p
o
n
E(X) = 0 · P(X = 0) + 1 · P(X = 1) = P(X = 1) = p
X ≥ 0:
X(ω) ≥ 0 für alle ω ∈ Ω
X ≤ Y :
X(ω) ≤ Y (ω) für alle ω ∈ Ω
•
Ist X ≥ 0 , so E(X) ≥ 0
E(X) =
o
n
X
etc. etc.
X(ω) f (ω)
ω∈Ω
Alle Summanden sind ≥ 0
→
Also ist auch die Summe ≥ 0
•
Ist X ≤ Y , so E(X) ≤ E(Y )
o
n
X ≤ Y
⇒
Y −X ≥ 0
E(Y ) − E(X) = E(Y − X) ≥ 0
→ E(X) ≤ E(Y )
1.4
QM1_16
236
Erinnerung : Beim Mittelwert gilt
−
Ist X ≥ 0 und MX = 0 , so gilt xi = 0 für alle i
?
Hat der Erwartungswert die gleiche Eigenschaft ?
?
Beispiel :
ω
a b c d
f (ω) .5 0 .5 0
X(ω) 0 7 0 13
X ≥ 0 und E(X) = 0 · (.5) + 7 · 0 + 0 · (.5) + 13 · 0 = 0
→
Also : E(X) = 0 , ohne dass X überall 0 ist
→
Das Problem liegt bei b und d
4
Immerhin : Die W. für die ‚ Ausnahmesituation ‘ {b, d} ist 0
−
1.4
Oder anders : Die W. für den ‚ Normalfall ‘ ist 1
QM1_16
237
→
‚ Fast sicher ‘
♦ Eine Eigenschaft liegt fast sicher ( f.s. ) vor , falls die
Wahrscheinlichkeit , dass sie vorliegt , gleich 1 ist
4
Anders formuliert :
− Die Wahrscheinlichkeit von ‚ Ausnahmen ‘ ist 0
?
Im Beispiel gilt X = 0 ( f.s. )
•
Ist X ≥ 0 und E(X) = 0 , so gilt X = 0 ( f.s. )
o
n
Ist E(X) = 0 , so
X
X(ω) f (ω) = 0
ω∈Ω
Dann müssen alle Summanden 0 sein
Ist X(ω) 6= 0 , so muss f (ω) = 0 gelten
→
•
o
n
P( {ω ∈ Ω | X(ω) 6= 0} ) = 0
Ist X = c f.s. , so gilt E(X) = c
E(X) =
X
x P(X = x)
x
= c · P(X = c) + 0 + · · · + 0
= c· 1 = c
1.4
QM1_16
238
→
•
Markoffsche Ungleichung
Ist X ≥ 0 und K > 0 , so gilt
P(X ≥ K) ≤
E(X)
K
Definiere neue Variable Y durch

 K falls X ≥ K
Y :=
 0 falls X < K
o
n
Y ≤ X
E(Y ) ≤ E(X)
E(Y ) = 0 · P(Y = 0) + K · P(Y = K) = K · P(X ≥ K)
K · P(X ≥ K) = E(Y ) ≤ E(X)
→
4
−
•
P(X ≥ K) ≤
1.4
Alles genau wie im deskriptiven Fall
bis auf M ↔ E , h ↔ P
Umformulierung : Ist X ≥ 0 und K > 0 , so gilt
P(X < K) ≥ 1 −
o
n
E(X)
K
Genau wie im deskriptiven Fall
E(X)
K
QM1_16
239
→
Erwartungswert eines Produkts
• Ist f(X,Y ) die W-Funktion der gemeinsamen Verteilung von X
und Y , so gilt
X
E(XY ) =
xy f(X,Y ) (x, y)
x,y
Ist h(x, y) := xy , so XY = h(X, Y )
o
n
→
•
Formel ist Alternativschreibweise für E(h(X, Y ))
Sind X und Y unabhängig , so gilt
E(XY ) = E(X) E(Y )
Hier ist f(X,Y ) (x, y) = fX (x) fY (y)
o
n
→
E(XY ) =
X
xy f(X,Y ) (x, y)
x,y
=
X
xy fX (x)fY (y)
x,y
!
=
X
!
X
x fX (x)
x
= E(X) E(Y )
1.4
y fY (y)
y
QM1_16
240
→
‚ Populationsmittelwert ‘
B
Oft wird das Wort ‚ Populationsmittelwert ‘ verwendet
4
Bedeutung manchmal nicht ganz klar
4
Häufig wohl synonym zu ‚ Erwartungswert ‘
B
Problematisch , da
−
‚ Mittelwert ‘ zunächst auf die deskriptive Ebene gehört
−
entsprechende Assoziationen geweckt werden
−
zum Erwartungswert ein W-Maß gehört
4 Sinnvoll vielleicht dann , wenn aus einer endlichen Population
zufällig gezogen wird ( gleiche W. für alle Mitglieder )
→ Bezeichnung ( ‚ Populationsmittelwert ‘ für / statt
‚ Erwartungswert ‘ ) ist ( oberflächlich ) eingängig
→
Bei genauem Hinsehen aber oft verwirrend
?
Kann man immer sinnvoll von einer Population sprechen ?
?
Reaktionszeiten einer festen Vp
1.4
QM1_16
241
→
Kennwerte von Zufallsvariablen : Varianz , Streuung
♦ Ist X : Ω → R eine reelle Zva auf einem endlichen W-Raum
mit E(X) = µ , so heißt die Zahl
V(X) := E (X − µ)2
p
V(X) aus der Varianz
auch Varianz von X . Die Wurzel
heißt auch Streuung oder Standardabweichung
Bezeichnung der Streuung von X : Gelegentlich auch σ(X)
Symbol für Varianzen oft σ 2 ( Streuung dann σ )
4
Begriffsbildung parallel zur Varianz der deskriptiven Statistik :
2
SX
= M(X−MX )2
Eigenschaften weitgehend ‚ übertragbar ‘
Begründungen ebenso ( bei geeigneten ‚ Übersetzungsregeln ‘ )
→
?
o
n
‚ Übersetzungsregeln ‘ : M ↔ E , h ↔ P
Beispiel : Alternativformel : V(X) = E(X 2 ) − µ2
V(X) = E ( (X − µ)2 ) = E ( X 2 − 2 µ X + µ2 )
= E ( X 2 ) − E (2 µ X ) + µ2
= E ( X 2 ) − 2 µ E ( X ) + µ2
= E ( X 2 ) − 2 µ2 + µ2 = E ( X 2 ) − µ2
1.4
QM1_16
242
?
−
Gewinnspiel mit gezinktem Würfel , Gewinn X :
X : 1 7→ 0 ,
2, 3, 5 7→ 2 ,
4, 6 7→ −3
W-Funktion :
−
f : 1, 2, 3, 4, 5 7→ .1 ,
6 7→ .5
Schon berechnet : E(X) = −1.2 ,
E(X 2 ) = 6.6
→
V(X) = E(X 2 ) − (E(X))2 = 6.6 − 1.44 = 5.16
→
Eigenschaften
B
Begründungen weitgehend wie bei deskriptiver Varianz
•
V(X) ≥ 0
•
Folgerung : E(X 2 ) ≥ (E(X))2
•
V(X) = 0 ⇔ X ist f.s. konstant ( = µ )
4
Hier Abweichung vom deskriptiven Fall ( ‚ f.s. ‘ )
X ist f.s. konstant :
−
Es gibt eine Konstante c mit P(X = c) = 1
4
Diese Konstante c ist dann gleich E(X) = µ
1.4
QM1_16
243
•
V(X) = 0 ⇔ X ist f.s. konstant ( = µ )
o
n ‚ ⇒ ‘ : Es gelte also V(X) = E((X − µ)2 ) = 0
(X − µ)2 ist ≥ 0
Aus E((X − µ)2 ) = 0 folgt daher : (X − µ)2 = 0 f.s.
→
Also X − µ = 0 f.s. , also X = µ f.s.
‚ ⇐ ‘ : Es gelte also X = c f.s.
E(X) = c , also c = µ
X 2 = c2 f.s. , also E(X 2 ) = c2
→
•
V(X) = E(X 2 ) − (E(X))2 = c2 − c2 = 0
V(aX + b) = a2 V(X) ,
σ(aX + b) = | a | σ(X)
o
n
Wie im Deskriptiven
•
Ist X binär , P(X = 1) = p , so V(X) = p (1 − p)
o
n
Wie im Deskriptiven
Oft 1 − p =: q , dann : V(X) = pq
1.4
QM1_16
244
→
Tschebyscheffsche Ungleichung
• Ist X reelle Zva mit Erwartungswert µ und Streuung σ > 0 ,
so gilt für jedes k > 0 die Beziehung
P( |X − µ| ≥ k σ) ≤
o
n
Wie im Deskriptiven
•
‚ Komplementär ‘ :
1
k2
P( |X − µ| < k σ) ≥ 1 −
1
k2
In ‚ absoluten Einheiten ‘ :
• Ist X reelle Zva mit Erwartungswert µ und Streuung σ > 0 ,
so gilt für jedes K > 0 die Beziehung
σ2
P( |X − µ| ≥ K) ≤
K2
•
‚ Komplementär ‘ :
σ2
P( |X − µ| < K) ≥ 1 − 2
K
1.4
QM1_16
245
→
Z-Transformation
♦ Ist X reelle Zva mit Erwartungswert µ und Streuung σ > 0 ,
so heißt die Zva
X −µ
ZX :=
σ
auch z-Transformierte von X . Für einen möglichen Wert x
heißt
zx :=
x−µ
σ
auch der zu x gehörende z-Wert.
•
E(ZX ) = 0 ,
V(ZX ) = 1
o
n
Wie im Deskriptiven
4
Bemerkungen zur Notation : Weitgehend gilt :
Griechische Buchstaben : Theoretische Größen ( ‚ Parameter ‘ )
?
µ, σ
Lateinische Buchstaben : Empirische Größen
?
M, S
1.4
QM1_16
246
→
Kovarianz , Korrelation
♦ Sind X und Y reelle Zvan auf demselben ( endlichen )
W-Raum mit E(X) =: µX , E(Y ) =: µY , so heißt
Kov(X, Y ) := E ((X − µX )(Y − µY ))
auch Kovarianz von X und Y
♦ Sind außerdem die Streuungen σX von X und σY von Y
beide 6= 0 , so heißt die Zahl
ρ(X, Y ) :=
Kov(X, Y )
σ X σY
auch Korrelation von X und Y
Symbol für ( theoretische ) Korrelationen : Meist ρ
4
Begriffsbildung wie im Deskriptiven
4
Leider ähnliche Notation für empirischen und theoretischen Fall
B
Auch Bezeichnungen oft gleich ( ‚ Varianz ‘ , ‚ Kovarianz ‘ , . . . )
B
Bei Verwendung von Korrelationen :
−
1.4
Stillschweigende Voraussetzung : σX 6= 0 , σY 6= 0
QM1_16
247
→
Eigenschaften
4
Alles ( auch Begründungen ) ganz wie im deskriptiven Fall
•
•
Kov(X, Y ) = E(XY ) − E(X) E(Y )
Sind X und Y unabhängig , so gilt
Kov(X, Y ) = 0
4
−
Aussage ‚ passt ‘ hierher ( theoretische Ebene )
Analoge empirische Aussage ist nicht so sinnvoll
•
Kov(X, Y ) = Kov(Y, X)
•
Kov( aX + b , c Y + d ) = ac Kov(X, Y )
•
Kov( X + Y , U + V ) =
Kov(X, U ) + Kov(X, V ) + Kov(Y, U ) + Kov(Y, V )
•
Kov
I
X
i=1
ai X i + b ,
J
X
cj Yj + d
=
j=1
I X
J
X
ai cj Kov(Xi , Yj )
i=1 j=1
1.4
QM1_16
248
→
Weitere Eigenschaften
•
V(X) = Kov(X, X)
•
V(X ± Y ) = V(X) + V(Y ) ± 2 Kov(X, Y )
•
V(aX + bY + c) =
a2 V(X) + b2 V(Y ) + 2 ab Kov(X, Y )
•
Kov(X, Y ) = ρ(X, Y ) σX σY
(
•
ρ(aX + b, c Y + d) =
•
ρ(X, Y )
falls ac > 0
−ρ(X, Y )
falls ac < 0
ρ(X, Y ) = ρ(ZX , ZY ) = Kov(ZX , ZY )
•
−1 ≤ ρ(X, Y ) ≤ 1
ρ(X, Y ) = ±1
⇔
Y = aX + b f.s. für ein a 6= 0
Vorzeichen von ρ dann gleich Vorzeichen von a
•
| Kov(X, Y ) | ≤ σX σY
4
Etc. etc.
4
Kovarianzmatrizen und Korrelationsmatrizen
−
1.4
ganz wie im deskriptiven Fall
QM1_16
249
Regression.
→
?
Vorübung
An n Personen wurde Größe Y gemessen
−
Werte : y1 , . . . , yn
−
Einzeldaten sind verloren
−
Kennwerte M , S 2 , Median , . . .
?
→
sind erhalten
Gesucht : Größe einer der Personen
Genauer : ‚ Beste Vermutung ‘
Was soll hier ‚ beste ‘ heißen ?
−
Zunächst : Keine klare Bedeutung
Ungefähr :
−
Vermutung soll ‚ möglichst nahe ‘ am tatsächlichen Wert liegen
‚ Möglichst nahe ‘ : auch unklar
Daher : Bedeutungsverleihung durch Präzisierung
1.5
QM1_16
250
→
Beste Vermutung über verlorene Daten
→
Gesucht : ‚ Optimale ‘ Vermutung a
→
‚ Optimalität ‘ muss präzisiert werden
Mehrere Möglichkeiten
?
Naheliegend :
−
Vermutung soll im Durchschnitt möglichst nahe am Ziel liegen
−
Genauer dann wohl :
−
Mittlere absolute Abweichung soll minimal werden
→
−
→
−
?
−
Forderung dann :
1 X
|yi − a| soll minimal werden
n i
Hier ist der Median eine Lösung für a
Unter Umständen : Eine von vielen – unschön !
Weitere Möglichkeit der Präzisierung :
Durchschnittliche quadrierte Abweichung soll minimal werden
Zunächst weniger einleuchtend – trotzdem . . .
1.5
QM1_16
251
→
Beste Vermutung über verlorene Daten
→
Gesucht : ‚ Optimale ‘ Vermutung a
→
‚ Optimalität ‘ muss präzisiert werden
?
Möglichkeit der Präzisierung :
−
Durchschnittliche quadrierte Abweichung soll minimal werden
−
Formal :
1 X
(yi − a)2 = M ((Y − a)2 ) soll minimal werden
n i
Kleine Rechnung :
M ((Y − a)2 ) = M (((Y − MY ) + (MY − a))2 )
= M ((Y − MY )2 + 2(Y − MY )(MY − a) + (MY − a)2 )
= M ((Y − MY )2 ) + M (2(Y − MY )(MY − a)) + (MY − a)2
= SY2 + 2(MY − a)M (Y − MY ) + (MY − a)2
= SY2 + 2(MY − a) · 0 + (MY − a)2
= SY2 + (MY − a)2 ≥ SY2
→
Minimum wird genau erreicht für a = MY
−
Jetzt ist also der Mittelwert die ‚ beste Vermutung ‘
−
Der ist auch immer eindeutig – schön !
4
Minimale durchschnittliche quadrierte Abweichung ist SY2
B
Je nach Präzisierung : Unterschiedliche ‚ beste Vermutung ‘
1.5
QM1_16
252
→
Regression
→
Ziel :
−
‚ Vorhersage ‘ einer Variable Y durch eine Variable X
→
Beispiele :
?
Y : Diplomnote , X : Abiturnote
?
Y : Ergebnis Klausur 2 , X : Ergebnis Klausur 1
?
Y : Hilfsbereitschaft , X : Stimmung
−
→
geeignet operationalisiert
Form der Vorhersagegleichung :
y = bx + a
B
( Fast ) einfachstmöglich – Geradengleichung
→
Aufgabe :
−
Finde b und a so , dass Vorhersage möglichst ‚ gut ‘ wird
X : Prädiktor
Y : Kriterium
Sprechweise : Regression von Y auf X
1.5
QM1_16
253
→
Gesucht : beste Vorhersage
Wie so oft :
→
Bezeichnungen etwas irreführend
♣
Situation : Beide (!) Variablen liegen in einer Stichprobe vor
→
Daher : Eher ‚ Rekonstruktion ‘ von Y als ‚ Vorhersage ‘
?
Vielleicht auch :
−
Beide Variablen lagen einmal in einer Stichprobe vor
−
Kennwerte wurden berechnet
−
Die Daten von Y sind verloren gegangen
−
Noch vorhanden sind die Daten von X und die Kennwerte
→
−
Gesucht dann :
‚ Beste Vermutung ‘ über den Y -Wert einer Person
Zur Verfügung stehen : X-Wert und Kennwerte
→
1.5
Hier ist Ausdruck ‚ Rekonstruktion ‘ passend
QM1_16
254
→
‚ Beste Vorhersage ‘
4
Manchmal ist Ausdruck ‚ Vorhersage ‘ gerechtfertigt
Eine Voraussetzung dafür beispielsweise :
−
?
Stichprobenverhältnisse können als ‚ repräsentativ ‘ gelten
Beispiel : X : Abiturnote , Y : Diplomnote
Große repräsentative Stichprobe aus einem Jahrgang
Erhebung von X und Y
Ermittlung der hier optimalen ‚ Vorhersagegleichung ‘
Später ( anderer Jahrgang )
−
?
→
Keine Veränderungen in relevanten Umständen wie :
Ausbildungssystem , Verteilung von Studienplätzen . . .
Naheliegend :
−
Gefundene Gleichung für Vorhersagen zu benutzen
−
‚ Vorhersage ‘ jetzt im üblichen Wortsinn
1.5
QM1_16
255
→
Bedeutung von ‚ Vorhersage ‘ im allgemeinen Fall
‚ Vorhersage ‘ legt Assoziationen nahe :
−
Zeitliche Reihenfolge , womöglich ‚ kausale ‘ ‚ Einflüsse ‘
→
Diese Assoziationen sind ( allgemein ) unangebracht
−
Jedenfalls nicht durch statistische Prozedur gerechtfertigt
4
In Einzelfällen können sie angemessen sein
B
Im allgemeinen Fall aber :
−
Statistik kann auch hier keine Kausalinterpretationen begründen
4
Immerhin : ‚ Stützung ‘ möglich
−
Eigentliche Rechtfertigung aber außerhalb der Statistik
?
?
Beispielsweise durch experimentelle Anordnungen
Beispiel zu ‚ zeitliche Reihenfolge ‘
−
1.5
‚ Vorhersage ‘ der Leistung in früherer Klausur durch spätere
−
Mögliche Anwendung des statistischen Verfahrens
−
Kann auch sinnvoll sein ( Fehlen bei Klausur 1 )
QM1_16
256
→
Regression hier ‚ nur ‘ deskriptiv
−
Nur Auffinden der ‚ optimalen ‘ Vorhersagefunktion
4
Es gibt auch eine Regression in der Inferenzstatistik
−
Verfahren anfangs wie hier
→ Zusätzlich aber : Testen von theoretischen Vorstellungen möglich
→
Voraussetzung dafür :
−
Glaube an bestimmte Modellvoraussetzungen
→
♣
Allgemeines Lineares Modell
( ALM )
Situation :
−
Werte von zwei Variablen X und Y liegen vor
−
( beide ) erhoben an n Vpn
−
Werte : x1 . . . xn bzw. y1 . . . yn
?
Miniaturbeispiel : 3 Vpn
Vp
1
2
3
1.5
X
2
4
3
Y
2
4
6
QM1_16
257
Miniaturbeispiel :
Vp
1
2
3
X
2
4
3
Y
2
4
6
Graphische Darstellung :
Y
.
.......
..........
...
....
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
................................................................................................................................................................
....
r
r
r
1
X
1
Daten mit einer möglichen ‚ Vorhersagegerade ‘ :
.....
..........
...
....
..
...
...
.
.......
...
.......
.......
...
..
.......
.
.
..
.
.
...
.
.
.....
..
...
.......
..
........
...
. ............ ....
...
.......
.
.
.
.
.
...
.
.
.
...
...
.......
...
.......
...
..
....... .
....... ..
...
..
.......
.
.
.
.
.
...
.
.
.
.
.
.................
.
.
.
.
.
.
.
.
.
.
.
..... .
..
....... ....
.......
...
..
..
...
..
...
..
...
.
...
...
...
...
...
...
...
....
.............................................................................................................................................................
......
Y
r
r
r
r
r
r
1
1
X
Eingezeichnet sind :
−
1.5
Tatsächliche Werte , vorhergesagte Werte und Abweichungen
QM1_16
258
Zum Vergleich : noch eine andere mögliche Vorhersage :
.....
..........
...
....
..
...
...
.
.......
...
.......
.......
...
..
.......
.
.
..
.
.
...
.
.
..
......
...
.......
..
........
...
. ........... ....
...
.......
.
.
.
.
.
...
.
.
.
...
...
.......
...
.......
...
..
....... .
....... ..
...
..
.......
.
.
.
.
.
...
.
.
.
.
.
.................
.
.
.
.
.
.
.
.
.
.
.
..... .
..
....... ....
.......
..
...
..
...
..
...
..
...
.
...
...
...
...
...
...
...
....
.............................................................................................................................................................
......
Y
r
r
r
r
r
r
1
1
?
.
.....
.....
.....
..........
.....
...
.....
.
.
.
....
.
.....
..
.....
...
.....
.....
...
.....
.
.
...
.
.
...
.....
..
......
...
..
..... .
...
.. ......... ...
.. .....
...
.
...
...
..
.....
...
...
.....
.....
...
..
.....
.
.
...
.
.
.
...
.
.
...
.
.
...
...
.
.
.
...
.
.
.... ..
.
.
...
.
... ..
.
.
...
.
.
..
...
.....
...
.....
...
..
.....
...
..
.....
.... ........
..
..
...........
.
.
.
.
.
......
.
.
.
.
... ...
.
.
.
.
... ...
.
.
.
.
....
....
.....
...
...
...
.............................................................................................................................................................
......
Y
r
r
r
r
r
r
1
X
1
X
Welche Vorhersage ist besser ?
Die Frage hat ( noch ) keinen Sinn
→
‚ Besser ‘ muss präzisiert werden
→
Einführung von geeigneten Bezeichnungen
Ŷ := b X + a : Vorhersage als Variable
ŷi := b xi + a : Vorhersagewert für Vp i
ei := yi − ŷi : ‚ Vorhersagefehler ‘ bei Vp i
E := Y − Ŷ : Vorhersagefehler ( als Variable )
→
4
Y = Ŷ + E
Y setzt sich ( additiv ) zusammen aus
−
Vorhersage Ŷ
−
Fehler ( ‚ Residuum ‘ ) E
1.5
QM1_16
259
?
Situation bei Vp 1 ( 1. mögliche Vorhersagegerade )
.
........
..........
...
...
...
...
...
......
.......
...
.......
..
.......
...
..
.......
.
.
.
.
...
.
.
..
.
.......
...
..
........
...
................ ...
.
...
..
.......
.
.
.
.
...
.
.
.
...
...
.........................................................................
..
...
..... ..
....... ..
.
...
.......
...
... ..............
.......
.
.
.
......
.
.
.
.
.
.
.
.
....... ....
...
.......
..
...
..
...
..
...
..
...
..............................................................
...
....
..
...
..
...
..
...
..
...
..
...
..
...
..................................................................................................................................................................
.
Y
r
ŷ1
r
r
r
y = bx + a
r
e1
y1
r
1
1 x1
B
e1 ist hier negativ
→
Präzisierung des ‚ Gütekriteriums ‘
X
Bestimme für jede mögliche Vorhersagegerade
n
X
e2i
i=1
−
Summe der quadrierten Vorhersagefehler
→
Festlegung , was ‚ besser ‘ hier bedeuten soll :
P 2
Eine Vorhersage ‚ ist ‘ umso ‚ besser ‘ , je kleiner
ei
P 2
− Für die optimale Vorhersage muss
ei minimal sein
Methode der kleinsten Quadrate , least squares fit
?
Kann ein Minimum erreicht werden ?
4
Andere Festlegungen für ‚ Optimalität ‘ wären möglich
−
1.5
Wenn ja , wie ?
So lässt sich aber besonders gut rechnen
QM1_16
260
→
Vergleich von zwei Vorhersagen im Miniaturbeispiel
Vorhersage 1 (V1) : y = .5 x + 3.5
Vorhersage 2 (V2) : y = x + 2
........
.........
...
....
..
...
...
....
.......
...
.......
..
.......
...
.......
..
.
.
.
.
.
...
.
..
......
...
.. ................
...
............. ..
...
..
.......
.
.
.
.
...
.
.
.
.......
...
...
.......
...
....... .
..
....... ...
...
.
.......
.
... ..............
.
..........
.
.
.
....
.
.
.
.
.
.
.
.
..
....... ....
...
.......
...
...
...
.
...
..
...
..
.
...
..
....
...
...
...
....
..
.............................................................................................................................................................
......
Y
r
r
r
r
r
r
1
→
?
1.5
r
r
r
r
1
V1
yi
2
4
6
r
r
X
1
Daten
Vp i xi
1
2
2
4
3
3
P
....
........
.....
.........
.....
.....
...
.....
.
.
.
....
....
..
.....
...
.....
.....
...
.....
.
.
.
...
.
....
..
...
.....
..
...
..... ..
.. ......... ...
...
.. .....
.
...
.
......
...
...
.....
...
.
.....
.....
...
...
....
.
.
.
...
..
.
...
.
.
.
...
.
.
....
.
.
.
...
.
... ..
.
.
.
...
.
... ..
.
.
.
...
.
.
.....
...
...
....
...
..
.....
... .........
.
... .......
...
............
..
.
.
.
.......
.
.
.
... ...
.
.
.
.
.
...
.
.
.
.
.
.
..
....
.....
...
...
...
...............................................................................................................................................................
....
Y
V1 : y = .5x + 3.5
ŷi
ei
e2i
4.5 −2.5 6.25
5.5 −1.5 2.25
5.0 1.0 1.00
9.50
1
X
V2
V2 : y = x + 2
ŷi ei e2i
4 −2 4
6 −2 4
5 1 1
9
V2 ist besser
Lässt sich V2 weiter verbessern ?
Wenn ja , wie ?
QM1_16
261
→
Minimierung von
→
Genauer : Ziel :
P
e2i
− Finde a und b so , dass für die zugehörige Vorhersage
y = bx + a
die Summe der quadrierten Fehler minimal wird
4
Unklar : Gibt es überhaupt ein Minimum ?
( Äquivalente ) Umformulierung des Ziels :
→
Minimiere ME 2 =
X
1X 2
ei statt
e2i
n
ME 2 = SE2 + (ME )2
−
Zerlegung von ME 2 in zwei Summanden
Summanden getrennt untersuchen
SE2 = SY2 −Ŷ = SY2 −(bX+a)
2
= SY2 + b2 SX
− 2 b KovX,Y
ME = MY −Ŷ = MY −(bX+a)
= MY − b MX − a
1.5
QM1_16
262
→
Ziel : Minimiere ME 2
ME 2 = SE2 + (ME )2
2
− 2 b KovX,Y
SE2 = SY2 + b2 SX
(ME )2 = ( MY − b MX − a )2
4
1. Summand ohne a
4
2. Summand ≥ 0
Minimum 0 wird erreicht für ME = 0
ME = 0 wird erreicht mit
→
Aufgabe daher nur noch : Minimiere SE2
→
−
B
♣
1.5
a = MY − b MX
Restaufgabe enthält nur noch b als ‚ Parameter ‘
Gesamtminimum wird dann erreicht mit a = MY − bMX
2
Voraussetzung zunächst : SX
6= 0 , SY2 6= 0
QM1_16
263
Ziel : Minimiere SE2
→
Trick : Quadratische Ergänzung
2
SE2 = SY2 + b2 SX
− 2 b KovX,Y
(KovX,Y )2
(KovX,Y )2
2
+
S
−
Y
2
2
SX
SX
2
(KovX,Y )2
2
+ SY −
2
SX
2
= b2 SX
− 2 b KovX,Y +
b SX −
=
4
KovX,Y
SX
2. Summand hängt nicht mehr von b ab ; Umformung :
(KovX,Y )2
2
SY −
2
SX
=
SY2 (KovX,Y )2
2
SY −
2
SY2 SX
2
= SY2 ( 1 − rX,Y
)
4
1. Summand ist ≥ 0
−
Minimum 0 erreichbar durch geeignete Wahl von b
→
•
b =
SY
KovX,Y
KovX,Y SY
=
= rX,Y
2
SX
SX SY SX
SX
Gesamtmininierungsaufgabe wird gelöst durch
b =
−
KovX,Y
SY
=
r
,
X,Y
2
SX
SX
a = MY − b MX
Das so erreichte Mininum von ME 2 ist
2
SE2 = SY2 ( 1 − rX,Y
)
1.5
QM1_16
264
?
Lösung im Beispiel
Vp
1
2
3
MX = 3 ,
X
2
4
3
Y
2
4
6
MY = 4
2
SX
= 2/3 ,
SY2 = 8/3 ,
b =
KovX,Y = 2/3 ,
rX,Y = .5
(2/3)
KovX,Y
=
= 1
2
SX
(2/3)
a = MY − b MX = 4 − 1 · 3 = 1
→
Vorhersagegleichung :
y = x+1
Summe der quadrierten Abweichungen :
Daten
Vp i xi
1
2
2
4
3
3
P
yi
2
4
6
y =x+1
ŷi ei e2i
3 −1 1
5 −1 1
4 2 4
0 6
Alternativ :
X
2
e2i = n ME 2 = n SE2 = n SY2 ( 1 − rX,Y
)
= 3 · (8/3) · ( 1 − .52 ) = 8 · (3/4) = 6
1.5
QM1_16
265
→
Vergleich mit den früheren Versuchen
Vorhersage 1 (V1) :
y = .5 x + 3.5
P
e2i = 9.5
Vorhersage 2 (V2) :
y = x + 2
P
e2i = 9
Optimale Vorhersage : y = x + 1
P
e2i = 6
Vorhersagegeraden mit Zentroid ( e)
.....
..........
...
....
..
...
..
.......
...
.......
..
.......
...
..
.......
.
.
.
.
...
.
.
..
.......
...
. .......... ...
...
........
.......
...
...
.......
.
.
.
.
...
.
..
.
.......
...
.
....... ...
.
... ..............
.
.........
.
.
.
....
.
.
.
.
.
.
.
.
..... ...
.
.
.
.
.
.
.
.
..
...
....
..
...
...
..
.
...
...
..
....
....
..
...
.........................................................................................................................................
Y
r
r
r
r
e r
r
1
1
V1
X
..
.....
.....
..........
.....
.....
...
.....
.
.
.
....
....
..
.....
...
.....
.....
...
.....
.
..
.
.
...
.
.
.. .........
...
.. ...... ..
...
.. .....
.
...
...
.....
.
.
.
...
..
.
...
.
.
.
...
..
.
...
.
.
.
...
.
.
....
.
.
.
...
.
.....
.
.
.
...
.
... ..
.
.
.
...
.
.
...
.
.
.
.
...
.
...
...
...
.....
..
... .........
............
..
.
.
.
......
.
.
.
.
... ...
.
.
.
.
.... ...
.
.
.
..
....
...
....
........................................................................................................................................
Y
r
r r
r
e r
r
1
1
V2
X
.....
..........
...
....
....
..
.....
...
.....
.....
...
.....
.
..
.
.
...
.
...
..
...
.....
..
.....
...
..
.....
...
..
....
.. ...........
...
.. ....... ...
...
.. .....
...
.
.
......
...
.....
.
.
...
.
...
.
.
.
...
.
...
.
.
.
...
.
......
...
..... .
...
..... .
..... ..
...
....
.
.
.
...
.
.
.
... .........
... .......
.......
.
.......
..... ..
..... ..
..... ....
.....
........................................................................................................................................
Y
r
r
r r
e
r
r
1
1 Optimal X
4
Beobachtungen im Beispiel :
P
−
ei = 0
( muss so sein )
−
1.5
Vorhersagegerade geht durch Zentroid
QM1_16
266
→
Nur zur Vollständigkeit : ( uninteressante ) Ausnahmefälle
2
= 0
SX
Dann sind die X-Werte konstant ( = MX )
Es gilt dann auch : KovX,Y = 0
→
b kann beliebig gewählt werden
Viele mögliche Vorhersagen
4
Relevant ist dabei nur der einzige X-Wert MX
−
→
Dort stimmen die möglichen Geraden überein
SE2 = SY2
SY2 = 0
2
( und SX
6= 0 )
Dann sind die Y -Werte konstant ( = MY )
Es gilt dann auch : KovX,Y = 0
→
b = 0,
→
SE2 = 0
a = MY
♣
Voraussetzung im Folgenden :
Vereinbarung :
2
SX
6= 0 ,
SY2 6= 0
− Ab jetzt bezeichnen a , b , Ŷ , E etc. immer die zur optimalen
Vorhersage gehörenden Zahlen / Variablen
1.5
QM1_16
267
→
Eigenschaften der Lösung
•
Vorhersagegerade geht durch Zentroid
o
n
Vorhersage für MX ist
b MX + a = b MX + ( MY − b MX ) = MY
•
o
n
•
4
−
B
o
n
P
ei = 0 ,
ME = 0
Gilt per Konstruktion
KovX,E = 0
Naheliegend : ‚ Fehler E hat mit X nichts mehr zu tun ‘
Sonst wäre auch Fehler noch ‚ teilweise vorhersagbar ‘
So darf man eigentlich nicht reden !
KovX,E = KovX,Y −(bX+a) = KovX,Y − b KovX,X
= KovX,Y −
KovX,Y 2
SX
2
SX
= KovX,Y − KovX,Y = 0
1.5
QM1_16
268
→
•
o
n
Varianzzerlegung
KovŶ ,E = 0
KovŶ ,E = KovbX+a,E = b KovX,E = b · 0 = 0
•
SY2 = SŶ2 + SE2
o
n
SY2 = SŶ2 +E = SŶ2 + SE2 + 2 KovŶ ,E
= SŶ2 + SE2
SŶ2 : ‚ Vorhersagevarianz ‘ , ‚ aufgeklärte Varianz ‘ ( absolut )
SE2 : ‚ Fehlervarianz ‘ , ‚ Residualvarianz ‘ , ‚ Restvarianz ‘
4
→
SY2 = SŶ2 + SE2 :
( additive ) ‚ Zerlegung ‘ der Varianz von Y in
−
aufgeklärte Varianz SŶ2
−
Restvarianz SE2
4
!
1.5
Varianzzerlegungen sind beliebt
Vorsicht mit Assoziationen ! ( aufgeklärt – erklärt )
QM1_16
269
→
SY2 = SŶ2 + SE2
Varianzzerlegung :
•
2
)
SE2 = SY2 ( 1 − rX,Y
•
2
SY2
SŶ2 = rX,Y
2
SŶ2 = SY2 − SE2 = SY2 − SY2 ( 1 − rX,Y
)
o
n
2
2
= SY2 − SY2 + SY2 rX,Y
= rX,Y
SY2
♦ Die Zahl
2
SY.X
:= SE2
2
( = SY2 ( 1 − rX,Y
))
heißt auch Schätzfehlervarianz . Die Zahl
SY.X := SE
( = SY
q
2
1 − rX,Y
)
heißt auch Standardschätzfehler
→
√
1 − r2 als Funktion von r ( Pythagoras )
...
......
.........
....
..
...
.
......................................................
.
.
.
.
.
.
.
.
.
.
.
.
..........
......
.
.
.
.
........
.
.
.
.
....
.......
.....
.
.
.
.
.
...
.
......
..
......
......
...
......
.....
.
.
.
.
.
.
.....
.
...
.
.
.
.....
.
.
.
.
.....
....
.
.
.
.
.
.....
.
...
.
.
.
.
.
...
.
..
.
...
.
.
.
...
..
...
.
.
...
.
.
.
.
.
...
.
..
...
...
.
.
...
..
..
.
.
...
..
..
.
.
...
..
..
.
.
...
...
....
....
...
...
...
...
...
...
...
...
...
...
...
...
...
............................................................................................................................................................................
......
1.0
√
1 − r2
0.5
−1.0 −0.5
B
1.5
0.0
0.5
1.0
r
‚ Klein ‘ wird die Funktion erst in der Nähe von ±1
QM1_16
270
→
Versuch einer Interpretation von SY.X
Streuung als ‚ Maß der Unsicherheit ‘ über die Lage der yi
Vgl. Tschebyscheff
B
Ungleichungen à la Tschebyscheff auch für Regression
?
Links : Ohne Regression , rechts : mit Regression
−
Beste Vorhersage ohne Regression : MY
.
.......
..........
...
....
..
...
...
..
..................................................................................................................................
....
....
...
.....
...
... ..................
...........
...
...
.....
.
.
.................................................................................................................................. ..............
..
..
.....
... .............
...
........
...
...
...
...
...
..................................................................................................................................
...
..
...
...
...
...
...
.
.........................................................................................................................................
.
....
.....
.
.....
.
.......
.....
.........
.
.
..........
.
.
.
..........
....... ....
......
...
..... .... ................ .......
.
.
....
.
.... ......... ........ ......
..
.
.....
...
.... ......... ........
.....
.....
...
...... ...
.....
.
.
..... ....
...
.
.
..... .... ........ ...
....
.
.
.
.
...
.
.
.
....
..... ...... ........
...
.....
....
...
.... .........
.....
.....
.....
.....
...
......
.....
.....
.
.
.
.
....
.
.
...
.
.
...
.....
....
.
.
.
.
.
.
.
.
...
.
.
.
...
...
....
.
.
.
.
.
.
.
.
...
.
.
.
.
....
....
.....
...
.....
.....
.....
...
.....
.....
.....
.....
.....
... ........
.....
.....
.
.
.
.
.
.
.
.
...........
.
....
..
.....
.....
.....
....
.....
..... ..
.....
.....
..... ..
.....
.....
..... .... .........
.
.
.
.
.
.
.
.
...
.....
... .......
.....
......
.....
.......
.....
..... ....
....
.
.
.
.
.
.
.
.
.
.
..... ... .........
....
.........................................................................................................................................
.
.....
.....
.
.
.
...
.....
.....
....
Y
Y
q
e q
q
e q
SY
q
q
1
1
X
1
SY.X
X
1
Halbe ‚ Streifenbreite ‘ ohne Regression : SY
Halbe ‚ Streifenbreite ‘ mit Regression : SY.X = SY
−
→
?
2
1 − rX,Y
‚ Streifenbreite ‘ immer in Richtung y-Achse
q
2
‚ Verkleinerungsfaktor ‘ durch Regression :
1 − rX,Y
Im Beispiel :
q
2
1 − rX,Y
=
√
1 − .52 =
√
.75 = .866
4
Verkleinerung geringer , als vielleicht erwartet
B
Korrelation .5 gilt oft schon als recht erfreulich
1.5
q
QM1_16
271
→
Weitere Eigenschaften
2
≤ SY2
0 ≤ SY.X
•
2
= 0
SY.X
2
= 1 ⇔ perfekter linearer Zusammenhang
⇔ rX,Y
2
2
= 0 ⇔ Vorhersage konstant
= SY2 ⇔ rX,Y
SY.X
2
2
)
SY.X
= SY2 ( 1 − rX,Y
o
n
−
b = rX,Y (SY /SX )
Interpretation von rX,Y = 0
B
•
MŶ = MY ,
2
SY2
SŶ2 = rX,Y
MŶ = MY −E = MY − ME = MY − 0 = MY
o
n
rŶ ,Y = | rX,Y |
•
Ŷ = b X + a , daher rŶ ,Y = ± rX,Y
o
n
‚ Vorfaktor ‘ ( ± ) ist Vorzeichen von b = rX,Y (SY /SX )
also Vorzeichen von rX,Y
→
4
rY,Ŷ = | rX,Y |
rX,Y = 0 ist hier vereinbarungsgemäß ausgeschlossen
−
1.5
Bei rX,Y = 0 wäre b = 0 , also SŶ = 0
QM1_16
272
→
Varianzzerlegung ‚ relativ ‘
•
o
n
1 =
SŶ2
SY2
Dividiere SY2 = SŶ2 + SE2
−
SŶ2
SE2
+ 2 ,
SY
SY2
2
= rX,Y
durch SY2
2
SY2
Ebenso für SŶ2 = rX,Y
♦ Der quadrierte Korrelationskoeffizient
2
rX,Y
=
SŶ2
SY2
heißt auch Determinationskoeffizient
4
?
→
•
Anteil der aufgeklärten Varianz an der Gesamtvarianz von Y
Determinationskoeffizient im Beispiel : .52 = .25
Eigenschaften des Determinationskoeffizienten
2
0 ≤ rX,Y
≤ 1
2
rX,Y
= 1 ⇔ perfekter linearer Zusammenhang
2
rX,Y
= 0 ⇔ Vorhersage konstant
4
−
B
−
1.5
Statt ‚ perfekter linearer Zusammenhang ‘ suggestiver :
Y ist durch X ‚ vollständig determiniert ‘
Missverständnisse drängen sich hier geradezu auf !
Es handelt sich ja nur um eine Stichprobe
QM1_16
273
→
Regression von X auf Y
→
Aufgabe : Regression von X auf Y
?
Kann man vielleicht die Regression von Y auf X benutzen ?
......
.....
.......
..........
.......
.......
...
.......
.
.
.
.
.
....
.
....
..
.......
.......
...
.......
..
.......
.............................................................................................................................................................
..
....... ..
....
..
.......
...
.......
...
.......
...
.
.......
..
.
.
.
... .......
.
.
...
.
.....
...
.
.
......
.
.
.
...
.
.....
.
..
.
.
.
.
... .......
.
..............................................................................................................................
...
... ...
..
.
.
.
.
.
....
.
.
.....
..
.
.
.
.
.
.
.
...
.
.
.....
.
.
.
.
...
.
.
.
...
.
.
.....
..
.
.
.
.
.
.
.
...
.
.
.....
.
.
.
.
.
.
.
...
.
....
.
.....
.
.
.
.
.
.
.
...
..
.
.
.....
.
.
.
.
..
.
.
.
...
.
.
.....
.
.
.
.
.
.
.
...
.
...
...
....
... ..............
..
.
........
..
.
.
.
.....
.
.
.
..
.
.
.
.
.
.
..... ...
.
.
.
.
.
.
.
...
.
.
.
.....
.
.
.
.
..
.
.
.
.
.
.
..
...
.......
....
....
..
...
...
..
...
...
..
...
...
..
...
...
.
...
...
......
....
....
...
.......................................................................................................................................................................................................................................................................
Y
Regression von Y auf X
?
X
→
Vorgehen zur Beantwortung der Frage
Bestimme die Regression von X auf Y
Stelle die Regressionsgerade im x-y-System dar
Vergleiche mit der Regressionsgerade ‚ Y auf X ‘
4
Es reicht , die Steigungen zu vergleichen
Steigungen : b ( Y auf X ) , b0 ( X auf Y , im y-x-System )
Steigung der Gerade ‚ X auf Y ‘ im x-y-System : 1/b0
Zum Vergleich : Quotient der Steigungen : b/(1/b0 ) = bb0
1.5
QM1_16
274
→
Vergleich der Steigungen im x-y-System
Quotient der Steigungen ist bb0
b = rX,Y
SY
,
SX
bb0 = rX,Y
→
b0 = rX,Y
SX
SY
SY
SX
2
rX,Y
= rX,Y
SX
SY
Übereinstimmung der Steigungen nur für rX,Y = ± 1
Dann aber auch Übereinstimmung der Geraden
−
→
rX,Y 6= ± 1 : Geraden stimmen nicht überein
−
?
Beide gehen ja durch das Zentroid
Immerhin haben Steigungen gleiches Vorzeichen
Die beiden Regressionsgeraden im Beispiel :
.....
..
...
..........
...
...
....
....
.....
..
..
.....
...
.....
...
.....
...
...
.....
.
..
.
.
...
.
.
..
...
.....
...
.....
...
...
....
...
... .......
...
.... ........
...
.. ......
...
.........
.....
...
........
.
.
...
.
.
..... ..
...
..... ..
...
..... ....
.....
...
.
.....
.
.
...
.
...
..
.....
...
..
.....
.
.
.
...
.
.
.
.
... .........
...
... .......
...
....
..
..
.......
.
.
.
.
.
.
..... ..
...
..... ..
...
..... ....
.....
...........................................................................................................................................
...
..
..
..
Y
r
Y auf X
e r
r
1
1
1.5
X auf Y
X
QM1_16
275
?
Warum stimmen die Regressionsgeraden nicht überein ?
→
Andere ( quadrierte ) ‚ Abstände ‘ sind zu minimieren
−
Bei Y auf X : parallel zur y-Achse
−
Bei X auf Y : parallel zur x-Achse
.
......
.........
..
...
...
.....
.....
...
.....
.....
...
.....
.
..
.
...
.
....
..
...
.....
..
...
.....
..
.....
...
..
......
.
.
.
...
.
.. ..... ..
...
.. ..... .
.. ..... ..
...
.....
.
...
.....
.
.
.
...
.
...
.
.
.
...
.
....
.
.
...
.
.....
...
.......
...
..... .
..... ..
...
.....
.
.
.
..
...
.
.
... .........
... .......
......
.
..
......
..... ..
..... ..
..... ....
.....
........................................................................................................................................
Y
Y
r
r r
r
r r
e
r r
e
r
r
r r
1
1
→
.
..
......
...
.........
...
..
....
...
...
..
...
...
...
...
..........
...
...
...
...
...
...
...
..
...
.
...
...
...
...
...
.................
..
...
.
...
...
...
...
...
...
..
...
.
...
...
............
...
...
..
..
...
.
...
...
...
...
...
...
..
...
.
...........................................................................................................................................
.
..
...
..
..
1
X
1
Y auf X
X
X auf Y
Eine weitere ähnliche Aufgabe
? Suche Gerade , bei der die Summe der quadrierten Abstände
senkrecht zur Gerade minimal ist !
→
?
Lösung ist ( meist ) wieder eine andere Gerade
Im Beispiel :
Y
...
......
.........
...
....
...
...
...
..
...
.
...
...
............
...
...
..
..
...
.
...
...
...
...
...
...
........
...
.
...
... .......
...
...
...
...
..
...
.
...
...
...
...
..
...
..
.
...
.
.
.
....
...
..
...
...
...
...
..
...
.
...
...
...
...
............................................................................................................................................
.
...
..
..
...
r r
er r
rr
1
1
B
X
Problematisch ist daher die Formulierung :
− ‚ Die die Punktwolke am besten repräsentierende Gerade ‘
1.5
QM1_16
276
→
Multiple ( lineare ) Regression
Erweiterung gegenüber der ‚ einfachen linearen Regression ‘ :
−
→
−
Mehrere Prädiktoren
Ziel :
‚ Vorhersage ‘ einer Variable Y durch mehrere Variablen Xj
Bezeichnung wieder : Y : Kriterium , Xj : Prädiktoren
Anzahl der Prädiktoren : m
−
Prädiktoren also : X1 , . . . , Xm
Vorhersagegleichung wieder ( fast ) einfachstmöglich :
y =
m
X
bj xj + a
j=1
→
bj : Regressionsgewichte ,
a : additive Konstante
Beispiele :
?
Vorhersage der Diplomnote mit mehreren Abiturnoten
?
Vorhersage der Hilfsbereitschaft mit Stimmung und Vermögen
1.5
QM1_16
277
→
Datensituation
♣
Werte der Variablen Xj und Y liegen für n Vpn vor
xij : Wert von Vp i in Variable Xj
Zusammenfassung der Daten in ‚ Datenmatrix ‘
Vp
1
2
..
.
n
X1
x11
x21
..
.
xn1
X2
x12
x22
..
.
xn2
...
...
...
..
.
...
Xm
x1m
x2m
..
.
xnm
Y
y1
y2
..
.
yn
Erster Schritt : Ermittlung von Kennwerten :
−
Mittelwerte MX1 , . . . , MXm , MY
−
2
Varianzen SX
, SY2
j
−
Kovarianzen KovXj ,Xk , KovXj ,Y
Kovarianzen ( und Varianzen ) :
−
1.5
wie üblich in Kovarianzmatrix versammeln
QM1_16
278
?
→
Beispiel
Ziel : Vorhersage des Studienerfolgs Y ( Durchschnittsnote )
−
Prädiktoren : Abiturpunkte in Deutsch ( D ) und Mathe ( M )
−
ferner Ergebnis eines speziellen Eignungstests (T )
Anfang einer möglichen Datenmatrix :
Vp D M T Y
1 10 10 110 2.8
2 8 15 120 1.1
..
.. ..
..
..
.
. .
.
.
Mögliche Vorhersage mit der Gleichung
Ŷ = −.1 D − .2 M − .05 T + 11
4
−
?
Gewichte : −.1 , −.2 , −.05
Additive Konstante : 11
Vorhersage für Vp 1 :
−.1 · 10 − .2 · 10 − .05 · 110 + 11 = 2.5
?
Vorhersage für Vp 2 :
−.1 · 8 − .2 · 15 − .05 · 120 + 11 = 1.2
Vorhersagen passen ganz gut zu den tatsächlichen Y -Werten
1.5
QM1_16
279
→
Geometrische Darstellung
4
Noch möglich im Fall von 2 Prädiktoren X1 und X2
Datendarstellung dann im dreidimensionalen Raum
Achsen : X1 , X2 , Y
Jeder Vp i entspricht ein Punkt im R3 : ( xi1 , xi2 , yi )
→
Vorhersagefunktion :
Jedem Paar ( x1 , x2 ) wird vorhergesagter Wert zugeordnet :
y = b1 x1 + b2 x2 + a
Graph ist dann allgemein ‚ eine Art Gebirgsoberfläche ‘
über der x1 -x2 -Grundebene
Im Fall dieser einfachen Funktion ist der Graph eine Ebene
a : ‚ Durchstoßpunkt ‘ der Y -Achse
b1 , b2 : Steigungen der Schnittgeraden des Graphen
mit der X1 -Y - bzw. X2 -Y -Ebene
1.5
QM1_16
280
→
Bezeichnungen wie bei der einfachen linearen Regression :
Ŷ :=
m
X
bj Xj + a : Vorhersage als Variable
j=1
ŷi :=
m
X
bj xij + a : Vorhersagewert für Vp i
j=1
ei := yi − ŷi : Vorhersagefehler bei Vp i
E := Y − Ŷ : Vorhersagefehler ( als Variable )
→
−
→
Aufgabe : Finde die optimale Vorhersagefunktion
wieder im Sinne der kleinsten Quadrate
Genauer : Finde Gewichte bj und Konstante a so ,
P
− dass für die zugehörige Vorhersage Ŷ =
b j Xj + a
die Summe
n
X
e2i
i=1
der quadrierten Fehler minimal wird
1.5
QM1_16
281
P
e2i durch geeignete Wahl der bj , a
→
Minimiere
→
Vorgehen ähnlich wie bei einfacher linearer Regression
Minimierung von ME 2 statt
Zerlegung :
P
e2i
ME 2 = SE2 + (ME )2
In SE2 kommt a nicht mehr vor
Minimum 0 von (ME )2 wird erreicht durch geeignetes a :
X
ME = MY −
bj MXj − a
P
→
Wähle also ( für gegebene bj ) : a = MY −
→
Aufgabe nun noch : Minimiere SE2 durch geeignete bj
bj MXj
Heuristik :
−
In der einfachen Regression galt KovX,E = 0
Vielleicht muss hier etwas Ähnliches gelten
1.5
QM1_16
282
• Falls KovXj ,E 6= 0 gilt für irgendein j , so ist die Vorhersage
Ŷ nicht optimal
Gegeben sei also Vorhersage Ŷ
o
n
→
mit KovXj ,E 6= 0
Zeige : Diese Vorhersage lässt sich verbessern
Ansatz : Modifikation zu neuer Vorhersage Ŷ 0 = Ŷ + d Xj
−
−
4
−
d bleibt vorerst noch unbestimmt
Ŷ 0 =
Also :
P
k bk Xk
+ a + d Xj
Bei Ŷ 0 ändert sich im Vergleich zu Ŷ nur bj
Zum alten bj wird d hinzuaddiert
Der Fehler E 0 von Ŷ 0 ist
E 0 = Y − Ŷ 0 = Y − (Ŷ + d Xj )
= (Y − Ŷ ) − d Xj = E − d Xj
2
SE2 0 = SE2 + d2 SX
− 2 d KovXj ,E
j
d =
Wähle jetzt
SE2 0
→
1.5
SE2
KovXj ,E
2
SX
j
=
SE2
(KovXj ,E )2 2
KovXj ,E
+
S
−
2
KovXj ,E
Xj
2 )2
2
(SX
S
Xj
j
=
SE2
(KovXj ,E )2
−
< SE2
2
SXj
lässt sich also tatsächlich verkleinern
QM1_16
283
Ergebnis bisher :
−
Ist KovXj ,E 6= 0 für ein j , so ist Ŷ nicht optimal
Umgekehrt ausgedrückt :
−
Beim optimalen Ŷ müssen alle KovXj ,E gleich 0 sein
→
Kleiner Exkurs
−
‚ Notwendige ‘ und ‚ hinreichende ‘ Bedingungen
A : Ŷ ist optimal
B : Alle KovXj ,E sind 0
→
Hier ist B eine notwendige Bedingung für A
−
Wenn B nicht gilt , kann auch A nicht gelten
−
Wenn A gilt , so muss auch B gelten
→
Außerdem ist A eine hinreichende Bedingung für B
−
→
?
1.5
Wenn A gilt , so gilt auch B
Frage für später :
Ist hier B auch eine hinreichende Bedingung für A ?
QM1_16
284
→
Umformulierung der gefundenen Bedingung
( Notwendige ) Bedingung für Optimalität
−
Alle KovXj ,E müssen 0 sein
KovXj ,E = KovXj ,Y −Ŷ = KovXj ,Y − KovXj ,Ŷ
KovXj ,Ŷ = KovXj ,Pk bk Xk +a
=
m
X
bk KovXj ,Xk
k=1
→
KovXj ,E = 0
⇔
m
X
KovXj ,Xk bk = KovXj ,Y
k=1
P
• Ist eine Vorhersage Ŷ =
bj Xj + a optimal , so müssen die
Gleichungen
m
X
KovXj ,Xk bk = KovXj ,Y
k=1
gelten für alle j = 1, . . . , m
4
Dies sind m Gleichungen mit m Unbekannten bj
Sie heißen Normalengleichungen ( Ngln )
4 Die Gleichungen lassen sich als eine Orthogonalitätsbedingung
interpretieren und ‚ normal ‘ bedeutet manchmal ‚ senkrecht ‘
1.5
QM1_16
285
?
Ein Beispiel :
♣
Zwei Prädiktoren X1 , X2 , Kriterium Y
−
Mittelwerte : MX1 = 4 , MX2 = 1 , MY = 3
−
Kovarianzmatrix von X1 , X2 ,

4 −2

−2 9
6 5
Y :

6

5
25
Ngln :
4 b1
+ (−2) b2 = 6
(−2) b1 +
9 b2
= 5
B Koeffizientenschema : Kovarianzmatrix von X1 und X2 :
!
4 −2
−2 9
B
Rechte Seite : Kovarianzen von X1 und X2 mit Y
Lösung : b1 = 2 , b2 = 1
Damit : a = MY − (b1 MX1 + b2 MX2 ) = 3 − (8 + 1) = −6
→
Einziger Kandidat für optimale Vorhersage :
Ŷ = 2 X1 + X2 − 6
?
1.5
Noch unklar : Ist diese Lösung wirklich optimal ?
QM1_16
286
→ Ergebnis bisher :
−
Die bj einer optimalen Lösung müssen die Ngln erfüllen
Unklar :
?
Sind die Ngln immer lösbar ?
?
Liefert eine Lösung der Ngln wirklich eine optimale Vorhersage ?
Eindeutig ?
• Die Ngln besitzen immer eine Lösung , die ‚ meistens ‘ auch
eindeutig ist
o
n
Begründung ist umfangreich
• Jede Lösung der Ngln liefert eine optimale Vorhersage
o
n
Geeignete Umformungen
→
Vorgehen bei multipler Regression :
Aufstellen und Lösen der Ngln ( → b1 , . . . , bm )
P
Ermitteln von a als
a = MY −
bj MXj
Vereinbarung :
− Ab jetzt bezeichnen a , bj , Ŷ , E etc. immer zu einer
optimalen Vorhersage gehörende Zahlen / Variablen
1.5
QM1_16
287
→
Eigenschaften der Lösung
• Für MX1 , . . . , MXm wird MY vorhergesagt
4
o
n
Vorhersage geht also durch ‚ Zentroid ‘ (MX1 , . . . , MXm , MY )
Einsetzen von MX1 , . . . , MXm für X1 , . . . , Xm liefert
X
X
X
bj MXj + a =
bj MXj + ( MY −
bj MXj ) = MY •
ME = 0
o
n
Gilt per Konstruktion
•
o
n
•
o
n
KovŶ ,E = 0
KovŶ ,E = KovP bj Xj +a,E =
MŶ = MY ,
P
bj KovXj ,E = 0
SŶ2 = KovŶ ,Y =
P
bj KovXj ,Y
MŶ = MY −E = MY − ME = MY
SŶ2 = KovŶ ,Ŷ = KovŶ ,Y −E = KovŶ ,Y − KovŶ ,E
= KovŶ ,Y = KovP bj Xj +a,Y
X
=
bj KovXj ,Y
1.5
QM1_16
288
→
Varianzzerlegung
•
SY2 = SŶ2 + SE2
o
n
SY2 = SŶ2 +E = SŶ2 + SE2 + 2 KovŶ ,E
= SŶ2 + SE2
SŶ2 : ‚ Vorhersagevarianz ‘ , ‚ aufgeklärte Varianz ‘ ( absolut )
SE2 : ‚ Fehlervarianz ‘ , ‚ Residualvarianz ‘ , ‚ Restvarianz ‘
•
→
ME 2 = SE2 = SY2 − SŶ2 = SY2 −
P
bj KovXj ,Y
Varianzzerlegung relativ
•
1 =
SŶ2
SY2
SE2
+ 2
SY
♦ Die Zahl
2
R :=
SŶ2
SY2
heißt auch Determinationskoeffizient
4
Relativer Anteil der aufgeklärten Varianz
B
Voraussetzung dabei immer : SY2 6= 0
1.5
QM1_16
289
♦ Die Zahl
√
SŶ
SY
heißt auch multiple Korrelation zwischen Y und X1 , . . . , Xm
R :=
•
4
Ist SŶ2 6= 0 , so gilt R = rY,Ŷ
R dann also : Korrelation der optimalen Vorhersage mit Y
rŶ ,Y =
o
n
•
•
R2 =
KovŶ ,Y
SŶ SY
SŶ2 = R2 SY2 ,
=
SŶ2
SŶ SY
=
SŶ
= R
SY
SE2 = SY2 ( 1 − R2 )
0 ≤ R2 ≤ 1
R2 = 1 ⇔ perfekter Vorhersage ( SE2 = 0 )
R2 = 0 ⇔ Vorhersage konstant ( SŶ2 = 0 )
♦ Die Zahl
2
SY.X
:= SE2
1 ,...,Xm
( = SY2 ( 1 − R2 ) )
heißt auch Schätzfehlervarianz . Die Zahl
SY.X1 ,...,Xm := SE
( = SY
p
1 − R2 )
heißt auch Standardschätzfehler
1.5
QM1_16
290
•
2
0 ≤ SY.X
≤ SY2
1 ,...,Xm
2
SY.X
= 0
1 ,...,Xm
⇔ R2 = 1 ⇔ perfekte Vorhersage
2
SY.X
= SY2 ⇔ R2 = 0 ⇔ Vorhersage konstant
1 ,...,Xm
o
n
2
= SY2 ( 1 − R2 )
SY.X
1 ,...,Xm
?
Kennwerte im Beispiel
♣
Zwei Prädiktoren X1 , X2 , Kriterium Y
−
Mittelwerte : MX1 = 4 , MX2 = 1 , MY = 3
−
Kovarianzmatrix von X1 , X2 ,

4 −2

−2 9
6 5
Y :

6

5
25
Lösung der Ngln : b1 = 2 , b2 = 1
→
Optimale Vorhersage :
Ŷ = 2 X1 + X2 − 6
→
SŶ2 =
→
SE2 = SY2 − SŶ2 = 25 − 17 = 8
2
P
SŶ2
bj KovXj ,Y = 2 · 6 + 1 · 5 = 17
17
= .68 ,
25
→
R =
→
2
SY.X
= SE2 = 8 ,
1 ,X2
1.5
SY2
=
R =
√
SY.X1 ,X2 =
.68 = .825
√
8 = 2.828
QM1_16
291
→
β-Gewichte
♣
Gelegentlich : Regression mit standardisierten Variablen
−
Standardisierung bei Prädiktoren und Kriterium
−
Die Fälle ‚ SXj = 0 ‘ und ‚ SY = 0 ‘ sind jetzt ausgeschlossen
Standardisierte Prädiktoren : Z1 , . . . , Zm
Standardisiertes Kriterium : ZY
Gewichte heißen zur Unterscheidung βj
( ‚ Zj ‘ statt ‚ ZXj ‘ )
( ‚ β-Gewichte ‘ )
Ngln im standardisierten Fall :
m
X
KovZj ,Zk βk = KovZj ,ZY
k=1
Kovarianzen der standardisierten Variablen sind Korrelationen
der unstandardisierten
Ngln im standardisierten Fall also :
m
X
rXj ,Xk βk = rXj ,Y
( j = 1, . . . , m )
k=1
4
−
?
−
1.5
Unterschied zum unstandardisierten Fall :
Kovarianzen werden durch Korrelationen ersetzt
Beziehung zur Lösung im unstandardisierten Fall ?
Also : Beziehung der βj zu den bj ?
QM1_16
292
→
Beziehung zwischen den βj und den bj
• Sind die Zahlen bk Lösungen der Ngln im unstandardiserten
Fall , so sind die Zahlen
SX
bk k
SY
Lösungen der Ngln im standardisierten Fall und umgekehrt
Voraussetzung : Die bk lösen die unstandardisierten Ngln :
o
n
m
X
KovXj ,Xk bk = KovXj ,Y
k=1
Division durch SXj SY , Einfügung des Faktors 1 = SXk /SXk
m
X
KovXj ,Xk SXk
KovXj ,Y
bk =
SXj SY SXk
SXj SY
k=1
Umgruppieren
m
X
KovXj ,Y
KovXj ,Xk SXk
bk =
SXj SXk
SY
SXj SY
k=1
Umformen
m
X
rXj ,Xk
k=1
→
= rXj ,Y
Die (SXk /SY ) bk lösen also die standardisierten Ngln
Umkehrung umgekehrt
1.5
SXk
bk
SY
QM1_16
293
→
Ngln , standardisiert und unstandardisiert
Sind b1 , . . . , bm Lösungen der Ngln im unstandardisierten Fall ,
so sind
SXj
βj := bj
( j = 1, . . . , m )
SY
Lösungen der Ngln im standardisierten Fall und umgekehrt
→
Im ( Normal )-Fall eindeutiger Lösbarkeit gilt
βj = bj
SXj
SY
( j = 1, . . . , m )
Additive Konstante ( standardisiert ) :
X
X
MZY −
βj MZj = 0 −
βj · 0 = 0
→ Ist die Vorhersage
Ŷ =
X
bj Xj + a
optimal im unstandardisierten Fall , so ist mit
βj = b j
SXj
SY
( j = 1, . . . , m )
die Vorhersage
ẐY =
X
βj Zj
optimal für die standardisierten Variablen
→
Grenzfall m = 1
β = b
1.5
SX
SY SX
= rX,Y
= rX,Y
SY
SX SY
QM1_16
294
?
β-Gewichte im Beispiel
♣
Zwei Prädiktoren X1 , X2 , Kriterium Y
−
Mittelwerte : MX1 = 4 , MX2 = 1 , MY = 3
−
Kovarianzmatrix von X1 , X2 ,

4 −2

−2 9
6 5
Y :

6

5
25
Lösung der Ngln : b1 = 2 , b2 = 1
→
Ŷ = 2 X1 + X2 − 6
Optimale Vorhersage :
Korrelationsmatrix von X1 , X2 , Y :


1
−1/3 3/5


1
1/3
−1/3
3/5 1/3
1
Ngln für die standardisierten Variablen :
β1
+ (−1/3) β2 = 3/5
(−1/3) β1 +
Lösung : β1 = 4/5 ,
→
β2
= 1/3
β2 = 3/5
Optimale Vorhersage
ẐY = .8 Z1 + .6 Z2
4
In der Tat :
β1 = (SX1 /SY ) b1 ,
1.5
β2 = (SX2 /SY ) b2
QM1_16
295
→
Beziehung der beiden Regressionsgleichungen
→
Schreibe die Originalregressionsgleichung mit z-Werten
Einsetzen von Xj = Sj Zj + Mj
Ŷ =
X
=
X
b j Xj + a
bj (SXj Zj + MXj ) + a
X
X
X
=
bj SXj Zj +
bj MXj + MY −
bj MXj
X
=
bj SXj Zj + MY
Standardisiere Ŷ ( mit der Y -Standardisierung )
bj SXj Zj + MY − MY
SY
P
X SXj
bj SXj Zj
=
bj
Zj
=
SY
SY
X
=
βj Zj
Ŷ − MY
=
SY
P
Vergleich mit standardisierter Regressionsgleichung :
X
ẐY =
βj Zj
Ŷ − MY
SY
→
ẐY ist die standardisierte Vorhersage
→
Beide Regressionsgleichungen sind ‚ eigentlich ‘ gleich
1.5
QM1_16
296
→
Sonderfall : Unkorrelierte Prädiktoren
Kovarianzmatrix hat hier außerhalb der Diagonalen Nullen
In der Diagonale stehen die Varianzen der Prädiktoren
j-te Ngl allgemein :
m
X
KovXj ,Xk bk = KovXj ,Y
k=1
j-te Ngl hier :
2
SX
b = KovXj ,Y
j j
Lösung :
bj =
KovXj ,Y
2
SX
j
B bj ist gleichzeitig das Gewicht der einfachen Regression auf Xj
Aufgeklärte Varianz :
SŶ2
=
=
=
1.5
X
bj KovXj ,Y =
X (KovXj ,Y )2
2
SX
j
X
SY2
X KovXj ,Y
2
SX
j
KovXj ,Y
SY2
2
rX
SY2
j ,Y
QM1_16
297
Aufgeklärte Varianz bei unkorrelierten Prädiktoren :
X
2
SŶ2 =
rX
SY2
j ,Y
B
→
2
SY2 ist die aufgeklärte Varianz bei Regression auf Xj
rX
j ,Y
Bei unkorrelierten Prädiktoren also :
− Insgesamt aufgeklärte Varianz ist Summe der durch die
Prädiktoren einzeln aufgeklärten Varianzen
4
Derartige Zerlegungen sind besonders beliebt
4
Die Varianzaufklärung ist hier sozusagen additiv
Division durch SY2 :
2
R =
SŶ2
SY2
=
X
2
rX
j ,Y
B Multipler Determinationskoeffizient ist Summe der
Determinationskoeffizienten aus den einfachen Regressionen
4
Eindruck :
− Man kann die Prädiktoren in unterschiedlichem Maß für die
Vorhersage (?) verantwortlich machen (?)
− Das ‚ Maß ‘ ist durch die Determinationskoeffizienten gegeben
B
1.5
Vorsicht vor überschießenden Assoziationen
QM1_16
298
→
β -Gewichte bei unkorrelierten Prädiktoren
Hier gilt :
βj = bj
→
SXj
SY SXj
= rXj ,Y
= rXj ,Y
SY
SXj SY
Zusammenfassung : Bei unkorrelierten Prädiktoren gilt :
• Die Regressionsgewichte sind dieselben wie bei den einzelnen
einfachen linearen Regressionen :
bj =
KovXj ,Y
SY
= rXj ,Y
2
SXj
SXj
• Die Varianzaufklärung ist additiv :
X
2
2
SŶ =
rX
SY2
j ,Y
• Der multiple Determinationskoeffizient ist die Summe der
Determinationskoeffizienten aus den einfachen Regressionen
X
2
2
R =
rX
j ,Y
• Die β -Gewichte sind gleichzeitig die Korrelationen :
βj = rXj ,Y
1.5
QM1_16
299
→
Zum Vergleich : Korrelierte Prädiktoren
4
Verhältnisse sind unübersichtlicher
4
Verhältnisse sind womöglich verwirrend
−
jedenfalls bei übermäßiger Assoziationssucht
Gewichte aus multipler und einfachen Regressionen müssen nicht
gleich sein
?
−
4
−
Im Beispiel : Multiple Gewichte : b1 = 2 , b2 = 1
Gewichte aus einfachen Regressionen : 1.5 (X1 ) , 5/9 (X2 )
Manchmal ändern sich auch Vorzeichen
( Na und ? )
Die aufgeklärte Varianz ist nicht additiv
?
Im Beispiel : Multipel aufgeklärte Varianz : 17 ( von 25 )
−
Einfach aufgeklärte Varianzen : 9 ( X1 ) , 25/9 = 2.777 ( X2 )
Entsprechend : Determinationskoeffizienten sind nicht additiv
?
Im Beispiel : R2 : .68
−
Einfache Determinationskoeffizienten : .36 ( X1 ) , 1/9 ( X2 )
4 Hier ist die durch beide Variablen aufgeklärte Varianz größer als
die Summe der einzeln aufgeklärten Varianzen
−
1.5
( Na und ? )
QM1_16
300
→
Verhältnisse bei korrelierten Prädiktoren
β -Gewichte sind nicht gleich den Korrelationen
?
Im Beispiel : β -Gewichte : .8 , .6
−
Korrelationen : .6 , 1/3 = .333
4
Gelegentlich auch Diskrepanz in den Vorzeichen
4
Bisweilen sind β -Gewichte auch > 1 oder < −1
−
( Na und ? )
4 Möglicher Grund dafür , dass β-r-Diskrepanzen ( z.B.
verschiedene Vorzeichen ) als unangenehm erlebt werden :
− Bedürfnis , beides als Indikator für ‚ Zusammenhang ‘ zu
interpretieren
→
Andererseits : Wem r nicht passt , dem bleibt noch β ...
B ‚ Merkwürdigkeiten ‘ verschärfen sich bei hohen Prädiktorkorrelationen
‚ Multikollinearität ‘
B
Unangenehm dabei auch : Lösungen werden ‚ instabil ‘
− Kleine Änderungen in Daten können zu großen Änderungen in
den Gewichten führen
1.5
QM1_16
301
→
Interpretation der Regressionsgleichung
→
Die Regression liefert die optimale Vorhersage
→
Fertig
→
Andererseits :
− Die Form der Regressionsgleichung
X
Ŷ =
bj Xj + a
fordert zu weitergehenden Interpretationen geradezu heraus
→
Etwa : Beschreibung von Mechanismen ( kausal ? )
− ( Die sind dann aber denkbar primitiv )
Genauer vielleicht : Die Xj ‚ beeinflussen ‘ Y
−
Regressionsgewichte zeigen die Stärke der Einflüsse ( ?? )
→
Zu solchen Interpretationen besteht ( bisher ) kein Anlass
1.5
QM1_16
302
→
Möglicher Hintergrund für weitergehende ‚ Interpretation ‘
→
Glaube an ein Modell :
−
Die Xj ‚ beeinflussen ‘ in der Tat Y
−
Einflüsse in Form der Regressionsgleichung
−
also : ‚ linear ‘ und ‚ additiv ‘
−
‚ wahre ‘ Gewichte sind allerdings unbekannt
−
Alle wesentlichen Einflüsse sind im Modell erfasst
−
Weitere Einflüsse sind jedenfalls ‚ unabhängig ‘ von ihnen
−
Sie machen den ‚ Fehler ‘ aus
−
Zusätzlich : gewisse technische Voraussetzungen
B
Glaube an das Modell ist außerstatistisch zu rechtfertigen
→
Wenn das Modell stimmt , so gilt :
−
Die Regressionsgleichung ‚ schätzt ‘ die ‚ wahre Gleichung ‘
−
→
−
in gewissem Sinne sogar optimal
Das heißt :
Die bj sind ( gute ) Schätzer der ‚ wahren Gewichte ‘
4
Die bj liefern dann in der Tat Hinweise auf Einflüsse
B
Inferenzstatistik wird benötigt
1.5
QM1_16
303
→
‚ Atheoretische ‘ Fragen
→ Auch ohne den Glauben an ein Modell können sich pragmatische
Fragen stellen
?
Beispiel :
→
?
4
−
→
Ziel : Zukünftige Vorhersagen mit der Regressionsgleichung
Xj : Abinoten und Testergebnisse , Y : Studienendnote
Voraussetzung hier :
‚ Verhältnisse bleiben so wie in der Stichprobe ‘
Mit weniger Prädiktoren wird die Vorhersage einfacher
−
Weniger Daten sind zu erheben
−
Einfachere Rechnung
?
−
→
?
Kann man Prädiktoren weglassen ?
Jedenfalls ohne die ‚ Vorhersagegüte ‘ deutlich zu mindern ?
Problem : Beurteilung der ‚ Nützlichkeit ‘ von Prädiktoren
Sind Regressionsgewichte hier nützlich ?
4 Bei solchen Fragen ist gelegentlich ein ziemlich merkwürdiger
Einsatz der Inferenzstatistik zu beobachten
1.5
QM1_16
304
→
‚ Interpretation ‘ der Regressionsgewichte
→
Gelegentlich Fragen der Art :
?
Kann man die Regressionsgewichte interpretieren ? Wie ?
?
Was soll das denn heißen ?
B Generell : Was ist bei derartigen Formulierungen eigentlich mit
dem Wort ‚ interpretieren ‘ gemeint ?
→
Unproblematisch ist jedenfall folgende ‚ Interpretation ‘ :
Sind zwei Konstellationen von Prädiktorwerten gegeben
−
die sich im j-ten Prädiktor um 1 unterscheiden
−
sonst jedoch nicht
→
so unterscheiden sich die zugehörigen Vorhersagen um bj
→
Konkret :
−
Die beiden Konstellationen : x11 , . . . , xm1 und x12 , . . . , xm2
−
Bedingungen : xk1 = xk2 für k 6= j , xj2 = xj1 + 1
Unterschied der zugehörigen Vorhersagen ŷ1 und ŷ2 :
!
!
X
X
ŷ2 − ŷ1 =
bk xk2 + a −
bk xk1 + a
k
=
X
=
X
k
bk xk2 −
k
X
k
bk xk1 =
X
(bk xk2 − bk xk1 )
k
bk ( xk2 − xk1 ) = bj ( xj2 − xj1 ) = bj · 1 = bj
k
1.5
QM1_16
305
‚ Interpretation ‘ von bj
→ Unterscheiden sich zwei Konstellationen von Prädiktorwerten um
1 in Xj und sonst nicht , so unterscheiden sich die zugehörigen
Vorhersagen um bj
Analog allgemeiner für beliebiges c :
→ Unterscheiden sich zwei Konstellationen von Prädiktorwerten um
c in Xj und sonst nicht , so unterscheiden sich die zugehörigen
Vorhersagen um bj c
Bisherige ‚ Interpretation ‘ sprachlich etwas ungelenk
Griffiger wäre :
→ Ändert sich Xj um 1 , und bleiben die anderen Prädiktoren
unverändert , so ändert sich die Vorhersage um bj
B
−
Problem : Einladung zu kausalen Fehldeutungen
Etwa : bj beschreibt die Größe des Einflusses von Xj
4 Allerdings :
− Zulässig kann eine solche Deutung sein bei Richtigkeit eines
entsprechenden Modells ( mit allen seinen Voraussetzungen )
−
1.5
Im Folgenden ( nach dieser Warnung ) :
Verwendung der griffigeren Formulierung
QM1_16
306
→
Vergleich von Gewichten
Einfluss-Assoziationen legen Gedanken nahe wie :
− Je größer das Gewicht bj ,
um so relevanter / einflussreicher / ... ist Xj
Vergleich der ‚ Bedeutsamkeit ‘ von Prädiktoren über Vergleich
der Größe ihrer Gewichte ( ? )
?
−
Beispiel : Vorhersage der Weitsprungleistung Y
Prädiktoren : Beinlänge X1 und Muskelkraft X2
Vorhersagegleichung vielleicht : Ŷ = .8 X1 + 1.5 X2 + 3
−
→
Einheiten dabei : Y , X1 : m , X2 : kp
Hier spielt X2 eine wichtigere Rolle als X1
Umskalierung : X2 wird jetzt in p gemessen
Umschreiben der Vorhersagegleichung :
Ŷ = .8 X1 + .0015 X2 + 3
→
Nun ist auf einmal X1 viel wichtiger ???
→
Naiver Vergleich von Gewichten ist Unsinn
1.5
QM1_16
307
→
‚ Interpretation ‘ von β -Gewichten
Die b -Gewichte ändern sich bei Skalenänderungen
Daher : Zu Vergleichen nicht gut geeignet
→
−
(?)
Möglicher Ausweg : Übergang zu ausgezeichneten Skalen
durch Standardisierungen
→
Wähle als ‚ Skaleneinheit ‘ also eine Standardabweichung
Statt ‚ Standardabweichung ‘ griffiger : ‚ Standardeinheit ‘
?
Um wieviel ändert sich die Vorhersage ,
−
wenn sich Xj um eine Standardeinheit ändert ( von Xj )
−
( und die anderen Prädiktoren gleich bleiben ) ?
Änderung von Ŷ dann um bj SXj
Das sind bj SXj /SY Standardeinheiten von Y
→
Also : βj Standardeinheiten von Y
→
‚ Interpretation ‘ von βj :
→ Ändert sich Xj um eine Standardeinheit ( von Xj ) , und
bleiben alle anderen Prädiktoren gleich , so ändert sich Ŷ
um βj Standardeinheiten ( von Y )
1.5
QM1_16
308
Sind die βj ‚ nützlicher ‘ als die bj ?
→
Kommt drauf an
→
Die βj können nützlicher sein ,
−
falls die Skalierungen der Xj ohne Zusammenhang sind
−
und die Standardeinheiten ‚ natürliche Einheiten ‘ sind
Standardeinheit ist ‚ natürlich ‘ :
−
z.B. bei zufälligem Ziehen aus ‚ natürlicher Population ‘
−
spiegelt dann eine ‚ natürliche Schwankung ‘ von Xj wider
Standardeinheit ist nicht ‚ natürlich ‘ :
−
z.B. bei willkürlicher Variation von Xj in einem Experiment
Gelegentlich auftauchende Formulierung :
− Im Gegensatz zu den b-Gewichten sind die β-Gewichte
interpretierbar
Formulierung unklar und interpretationsbedürftig
−
gemeint wohl im Sinne der ‚ Interpretation ‘ der βj
Außerdem : Formulierung viel zu undifferenziert
→
1.5
Typisches Beispiel für Vernebelung
QM1_16
309
Interpretation von Gewichten
?
Sind Gewichte ‚ interpretierbar ‘ hinsichtlich ihrer Größe
−
als Indikatoren der ‚ Bedeutsamkeit ‘ der Prädiktoren ?
−
sind sie untereinander in dieser Hinsicht vergleichbar ?
→
Kommt drauf an
Beim Glauben an ein Modell mit allen Voraussetzungen :
−
womöglich ja
b oder β ?
?
−
Kommt drauf an
Bei der atheoretischen Bestimmung einer optimalen Vorhersage
−
B
eher nicht
Gerade bei starker Multikollinearität :
→ Bei Hinzufügung oder Wegnahme von Prädiktoren können sich
Gewichte drastisch ändern
−
Von stark positiv zu stark negativ
−
Von 0 oder praktisch 0 zu sehr groß
−
Oder umgekehrt
→
Sind Gewichte dann überhaupt noch ‚ ernstzunehmen ‘ ?
4
Trotzdem vielleicht brauchbar als Anregung für ein Modell
1.5
QM1_16
310
→
Gewichte und Korrelationen
Beide in gewisser Weise Indikatoren für ‚ Zusammenhang ‘
Bei stark korrelierten Prädiktoren :
−
Oft widersprüchliche Hinweise
?
Im Beispiel : β1 = .8 , rX1 ,Y = .6
B
Manchmal auch unterschiedliche Vorzeichen
?
Was soll man ‚ ernstnehmen ‘ ?
Beim Glauben an ein Modell ( mit allen Voraussetzungen )
−
Gewichte haben inhaltliche Bedeutung
→
Korrelationen womöglich eher zweitrangig
Ohne ein Modell
−
Gewichte sind oft nur Mittel zum Zweck
−
inhaltlich womöglich von zweifelhaftem Wert
→
Hier sind eher Korrelationen relevant
B
Schwammigkeit des Begriffs ‚ Zusammenhang ‘
1.5
QM1_16
311
→
?
−
→
?
Polynomiale Regression
Sind alle ‚ Zusammenhänge ‘ ‚ linear ‘ ?
Natürlich nicht
Ziel : Auch ‚ nichtlineare ‘ Zusammenhänge ‚ beschreiben ‘
Beispiel : Erregung X und Leistung Y
−
Leistung ist bei mittlerer Erregung hoch
−
bei niedriger und hoher Erregung niedrig
?
Mögliche Datensituation
Y
..
........
.......
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
..................................................................................................................................................................................................................
qq q qqqq q
q qq qqq qq q q q
qqqqqqqqqqqqqqqqqqqqqqqqqq qqqqqqqqqqqqqqq
q
q qqq qq q q q qqq qq
q q qqqqqqqq q q qq qqqqq qqqqqqqqq
qq qqqq q
q qq q
qq q
qqq qq
qq qqqq
qq
qqqqq
qq
q
q
qq
q
qq
q
X
‚ Umgekehrt U-förmiger Zusammenhang ‘
Form der Punktwolke parabelähnlich
→
1.5
Vorhersagegleichung vielleicht in Form einer Parabelgleichung
Quadratische Regression
QM1_16
312
→
Quadratische Regression
♣
Es liegen Daten in Variablen X und Y von n Vpn vor
−
Punktwolke erinnert an Parabel
−
Oder : Theorie legt parabelförmigen Zusammenhang nahe
→
−
Ziel : Sage Y möglichst gut vorher
jetzt durch Gleichung der Form
y = a x2 + b x + c
Möglichst gut : Wieder im Sinne der kleinsten Quadrate
→
−
?
Lösung : X 2 als weiterer Prädiktor
dann multiple Regression
Mögliche Originaldaten und Daten mit zusätzlichem Prädiktor
Vp
1
2
3
..
.
X
2
5
4
..
.
Y
3
3
6
..
.
Vp
1
2
3
..
.
X X2
2 4
5 25
4 16
..
..
.
.
Y
3
3
6
..
.
→
Multiple Regression von Y auf X1 : = X und X2 : = X 2
4
Gewichte : b für X1 = X , a für X2 = X 2
−
1.5
additive Konstante : c
QM1_16
313
→
Maximum ?
Nach erfolgreicher Regression vielleicht interessant :
−
?
−
Wo ist die Vorhersage maximal ?
Bei welcher Erregung wird maximale Leistung vorhergesagt ?
Wie groß ist dies Maximum ?
Kurvendiskussion
→
Ergebnis :
−
y = a x2 + b x + c hat Extremum in x = −b /(2 a)
−
Wert von y dort : −b2 /(4a) + c
−
Maximum für a < 0 , Minumum für a > 0
Y
−b2 /(4a) + c
..
........
.......
....
...
...
...
...
...
...
...
.....................................................................................
.....
...
...
.
.....
.....
...
...
....
.....
...
...
..
...
...
...
.
.
...
...
.
.
.
.
.
...
...
.
...
...
.
.
...
.
...
..
.
.
...
...
..
.
.
.
...
...
..
..
.
.
...
...
.
..
.
...
.
...
..
..
...
.
.
...
...
.
..
.
.
...
.
...
..
.
.
...
...
.
..
.
.
...
...
.
..
.
...
...
.
.
..
...
.
.
...
...
..
....
...
...
.
.
.
.
...
...
...
... ....
...
..
... ...
...
..
... ...
...
...
...
... ...
...
..
... ...
....................................................................................................................................................................................................................
.
...
.
.....
...
....
...
..
...
...
y = ax2 + bx + c
−b/(2a)
1.5
X
QM1_16
314
→
Polynomiale Regression
Verallgemeinerung :
−
Vorhersage von Y jetzt durch Gleichung der Form
y = ak xk + ak−1 xk−1 + . . . + a1 x + a0
4
Vorhersage also durch Polynom vom Grad k
→
Vorgehen völlig analog zur quadratischen Regression
Einführen von X k , X k−1 , . . . , X 2 als weitere Prädiktoren
Multiple Regression von Y auf X k , X k−1 , . . . , X 2 , X
→
−
Zahl der Prädiktoren jetzt k
Weitere Verallgemeinerung :
−
Vorhersage mit noch allgemeineren Funktionen
−
Statt / neben Potenzen von x auch zugelassen :
−
z.B. sin(x) , cos(x) , log(x) , . . .
→
1.5
Vorgehen völlig analog
QM1_16
315
→
Moderatormodelle
♣
( Theoretische ) Vorstellung :
−
X1 ‚ beeinflusst ‘ Y
−
jedoch unterschiedlich je nach Wert von X2
X2 dann : Moderator
?
Y : Hilfsbereitschaft ,
( linear ) – bis auf ‚ Fehler ‘
X1 : Stimmung ,
X2 : Vermögen
Illustration ( ohne ‚ Fehler ‘ )
.....
..........
...
....
..
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
................
...
.................
...
.................
.................
...
.................
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
......
... ...............................
..................
................. ...
.
.................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
....
.................
....
..........................................................................................................................................................
Y
.....
..........
...
....
.....
..
.......
.......
...
.......
.
.
.
.
...
.
.
......
...
.......
...
.......
.......
...
.......
.
.
.
.
...
.
.
.......
...
.......
...
.......
.......
...
.......
.
.
.
.
...
.
.
..
...
.......
.......
...
.......
... ............
........
.
......
....... .
....... ....
.......
...
.......
.
.
.
.
.
.
...
.
.......
...
.......
.
.
.
.
.
...
.
....
.
.
.
.
.
...
.
....
.
.
.
.
.
...
.
....
.
.
.
.
.
.
...
.
.......
...
...
...
...
....
..
...
...........................................................................................................................................................
Y
X1
X2 klein
X1
X2 groß
B
Auch die Steigung kann sich ändern
?
Reicht Modell der multiple Regression auf X1 und X2 ?
1.5
QM1_16
316
→
?
Modellierung der ‚ Moderatorwirkung ‘
Reicht Regression von Y auf X1 und X2 ?
Vorhersagegleichung :
y = b1 x1 + b2 x2 + a = b1 x1 + ( b2 x2 + a )
Bei jeweils festem x2 :
−
y ist lineare Funktion von x1
−
Jedoch : Steigungen sind alle gleich ( Geraden parallel )
Leichte Modifikation
Wohl simpelste Möglichkeit : X1 X2 als weiterer Prädiktor
Vorhersagegleichung dann :
y = b1 x1 + b2 x2 + b3 (x1 x2 ) + a
= ( b1 + b3 x2 ) x1 + ( b2 x2 + a )
Bei jeweils festem x2 :
−
y ist lineare Funktion von x1
−
Steigung ( b1 + b3 x2 ) ändert sich mit x2
−
Additive Konstante ( b2 x2 + a ) ebenso
→
1.5
Das reicht ja dann wohl
QM1_16
317
→
Vorgehen bei Untersuchung von ‚ Moderatorwirkungen ‘
Multiple Regression von Y auf X1 , X2 und X3 := X1 X2
Inferenzstatistische Prüfung :
?
Unterscheidet sich b3 ‚ signifikant ‘ von 0 ?
→
Wenn ja , wird X2 als Moderator betrachtet
→
Implikationen des Modells
− Für jeden festen Wert x2 von X2 ist Vorhersage linear in X1
− Die Geradensteigungen hängen linear von x2 ab
− Die additiven Konstanten hängen linear von x2 ab
−
Alle Geraden gehen durch den Punkt
( x1 , y ) = ( −b2 /b3 , −b1 b2 /b3 + a )
.
.
.....
.......
.....
.........
.....
..... ...
.
.
.
....
.
.... .........
...
.
.....
...
..... ..........
.....
..
...
..
..... ..........
.
.
......
.
...
.
......
... ........
.
.
.
.
.
.
...
.
.
.
... ........ ........
.
.
.
...
.
.... ..... ..........
......
...
......
.
..... .....
...
..... ...... ...... .............
..... ...... ......
..
...
..... .......... ........... ...........
.
.....
.
.
.
...
.
.
.
.
..
...
.. ...
......
...
..... ..... .......
.......
.......
..... ...... ...... .......
.......
...
............... .......... ............ .............
.
....
.
.
.
...
.
.
.
.
..
...
.. ... ...
.......
...
..... ..... ...... ....... ..............
........
..... ...... ...... .......
...
.........
...
.......................... ............ .............
........
.
.
.
.
.
.
...
.
.
...
.
.
.
.
.
.
.
..
..
. . . .
........
... .......................................... ............. ................
...........
...........
.................................................... ...............
...........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...................... ....... ......... ...................
...................... ....... ........
...
................................. ......... ............
............................................ .............
........................................................................................
.
.
.
.
.
.
....................................................................
.
.
.
.
..
........................
.........................................
.................... .
................................... .
....
.............................................................................. ...
.
.
.
.
.
.
.
.
.
.
...
................................................................
...
...
....................................................
.
...
.
.......................................
.
...
.
...............................
.
........................................................................................................................................................
.
....................
....
............
....
Y
−b1 b2 /b3 + a
−b2 /b3
−
4
1.5
X1
Geraden für 7 Werte von x2 mit jeweils gleichen Abständen
( Naheliegende Frage : Ist das alles plausibel ? )
QM1_16
318
→
Partialkorrelation
♣
Mögliche Situation : 3 Variablen X , Y , Z
−
Negative Korrelation zwischen X und Y für festes z
−
Positive Korrelation zwischen X und Y insgesamt
?
−
Hypothetisches Beispiel :
X : Deutschleistung , Y : Matheleistung , Z : Klasse
Y
..
.......
........
....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
.........................................................................................................................................................................................................................................................
q
1
qq
qq
q q
q
q qqq qqqqq q q
q qqqqqqqqqq qq q Z =
qq q qqqqqqqqqqqqqq q q
qqq q qq q
q qqq
q qqqqqqqqqq q
qq qq
q
qqq q qqq q
q qq q
qq q qq
q q
q q qqqq qq q
q q q qqqq q q q
qq qq qqqqqqqq q
qqq qqqqqq qq q qq
q q qq q q q q
q q Z = 6
8
X
1
r = .5
Eindruck :
−
?
‚ Wahrer ‘ Zusammenhang wird durch r nicht korrekt erfasst
Analoge ähnliche Beispiele :
−
Großes r für festes z , Unkorreliertheit insgesamt
−
r = 0 für festes z , r = .9 insgesamt
−
etc. etc.
1.5
QM1_16
319
→
Ziel : Ermittung der ‚ wahren ‘ Korrelation
→
Vielleicht ist es möglich und zielführend ,
−
den ‘ Einfluss ‘ von Z ‚ herauszurechnen ‘
−
und dann die ‚ bereinigten ‘ Variablen zu korrelieren
‚ Herausrechnen ‘ des ‚ Einflusses ‘ mittels Regression
Die ‚ bereinigten ‘ Variablen wären dann die Residuen
B
Sinnvolles Resultat ergibt sich dabei wohl nur dann ,
−
wenn ‚ Einfluss ‘ von Z auf X und Y etwa linear ist
→
Vorgehen also :
Regressionen von X und Y auf Z
Interessant sind nun die Residuen
→
4
→
1.5
Diese sind zu korrelieren
Jetzt werden also die früher uninteressanten Fehler wichtig
X̃ , Ỹ : Fehler bei Regressionen von X und Y auf Z
Ziel : Formel für das Endergebnis
QM1_16
320
→
Durchführung der Rechnung
Regressionen : X̂ = bX Z + aX ,
Gewichte dabei : bX =
SX
rXZ ,
SZ
Ŷ = bY Z + aY
bY =
SY
rY Z
SZ
Die jetzt interessanten Residuen :
−
X̃ = X − X̂ = X − bX Z − aX
−
Ỹ = Y − Ŷ = Y − bY Z − aY
Kovarianz :
KovX̃,Ỹ = KovX − bX Z − aX ,Y
− bY Z − aY
= KovX,Y − bX KovZ,Y − bY KovX,Z + bX bY KovZ,Z
SX
= rXY SX SY −
rXZ ( rY Z SY SZ )
SZ
SY
SX
SY
−
rY Z ( rXZ SX SZ ) +
rXZ
rY Z SZ2
SZ
SZ
SZ
= rXY SX SY − SX SY rXZ rY Z
− SY SX rY Z rXZ + SX SY rXZ rY Z
= rXY SX SY − SX SY rXZ rY Z
= SX SY ( rXY − rXZ rY Z )
1.5
QM1_16
321
Fortsetzung der Rechnung
SX̃ : Standardschätzfehler bei Regression von X auf Z
q
2
SX̃ = SX 1 − rXZ
SỸ : analog
SỸ
→
q
= SY 1 − rY2 Z
Korrelation von X̃ und Ỹ :
rX̃ Ỹ =
=
KovX̃,Ỹ
SX̃ SỸ
SX SY ( rXY − rXZ rY Z )
q
q
2
SX 1 − rXZ SY 1 − rY2 Z
= q
♦ Die Zahl
rXY − rXZ rY Z
q
2
1 − rXZ
1 − rY2 Z
rXY − rXZ rY Z
q
rXY.Z := q
2
1 − rXZ
1 − rY2 Z
heißt auch Partialkorrelation von X und Y ohne Z
1.5
Sprechweise : Z wird herauspartialisiert
QM1_16
322
?
Beispiel
−
Daten aus dem Beispiel zur multiplen Regression
−
Variablen passenderweise umbenannt :
−
Statt X1 , X2 , Y jetzt X , Y , Z
Korrelationsmatrix ( Reihenfolge : X , Y , Z ) :


1
−1/3 3/5


1
1/3
−1/3
3/5 1/3
1
→
Partialkorrelation :
rXY.Z
=
rXY − rXZ rY Z
q
q
2
1 − rXZ
1 − rY2 Z
(−1/3) − (3/5) (1/3)
p
= p
1 − (3/5)2
1 − (1/3)2
(−1/3) − 1/5
p
= p
16/25
8/9
√
− 8/15
−1
− 2
√ = √ =
=
2
(4/5)(2/3) 2
2
= −.7071
1.5
QM1_16
323
→
Bedeutung der Partialkorrelation
B
Unklar :
−
Erfüllt die Partialkorrelation die motivierenden Wünsche ?
Erläuterung der Bedeutung :
−
Darlegung des Verfahrens
4
Lage womöglich etwas unbefriedigend
→
Geometrische Interpretation :
Betrachte Punktwolke im X-Y -Z-Koordinatensystem
Konstruiere ‚ Regressionsgerade im Dreidimensionalen ‘
z 7→ ( bX z + aX , bY z + aY )
‚ Drehe ‘ Gerade senkrecht zur X-Y -Ebene
−
Datenpunkte sollen ‚ folgen ‘
Betrachte nun die Situation von oben
‚ Projiziere ‘ also die ‚ neuen ‘ Datenpunkte auf X-Y -Ebene
Ergebnis : Punktwolke in X-Y -Ebene
→
1.5
Partialkorrelation ist Korrelation dieser Punktwolke
QM1_16
324
→
Bedeutung der Partialkorrelation
Gelegentlich hört man folgenden Spruch :
− Die Partialkorrelation ist die Korrelation von X und Y bei
konstant gehaltenem Z
→
( Schön wär’s )
Versuch einer Interpretation
Dazu besondere Datensituation :
−
Z nimmt nur endlich viele Werte an
−
Für jeden dieser Werte : mehrere Beobachtungen
−
Für jeden Wert dann : eine Korrelation von X und Y
?
Beispiel :
X
1
3
5
Y
2
4
3
Z
1
1
1
X
9
7
5
Y
2
4
3
Z
2
2
2
X
4
5
6
Y
5
8
5
Z
3
3
3
Korrelationen von X und Y für Z = 1, 2, 3 : .5, −.5, 0
B Die Korrelation von X und Y bei konstantem Z gibt es hier
gar nicht
4
Ist der Spruch dann sinnvoll ?
rXY.Z = −.39
?
1.5
( Was sagt uns das ? )
QM1_16
325
Versuch einer Interpretation
Voraussetzung ab jetzt :
−
Die Korrelationen für verschiedene z sind alle gleich
?
Ist dann die Partialkorrelation gleich dieser Korrelation ?
?
Beispiel :
X Y
−2 −1
0 1
2 0
Z
1
1
1
X
−3
−1
1
Y
0
2
1
Z
2
2
2
X Y
−1 −2
1 0
3 −1
Z
3
3
3
Korrelationen von X und Y für Z = 1, 2, 3 : .5, .5, .5
B
Hier gibt es die Korrelation bei konstantem Z
Partialkorrelation : .09
→
Partialkorrelation ist nicht Korrelation bei konstantem Z
→
Betrachtung der Zentroide der Teilgruppen ( dreidimensional )
Zentroide : ( 0, 0, 1 ) , ( −1, 1, 2 ) , ( 1, −1, 3 )
→
Zentroide liegen nicht auf einer Gerade
4
Das spricht gegen ‚ Linearität ‘ der Einflüsse
B
Partialkorrelation passt hier qua Konstruktion nicht
1.5
QM1_16
326
→
?
Versuch einer Interpretation
Noch ein Beispiel :
X Y
−20 −1
0
1
20 0
Z
1
1
1
X
−1
1
3
Y
0
2
1
Z
2
2
2
X
0
2
4
Y
1
3
2
Z
3
3
3
Korrelationen von X und Y für Z = 1, 2, 3 : .5, .5, .5
B
Hier gibt es die Korrelation bei konstantem Z
→
Betrachtung der Zentroide der Teilgruppen ( dreidimensional )
Zentroide : ( 0, 0, 1 ) , ( 1, 1, 2 ) , ( 2, 2, 3 )
→
Zentroide liegen auf einer Gerade
Partialkorrelation : .34
→
Partialkorrelation ist nicht Korrelation bei konstantem Z
→
2
Betrachtung der Varianzverhältnisse SX
/SY2
2
Varianzverhältnisse SX
/SY2 für Z = 1, 2, 3 :
→
1.5
400 , 4 , 4
Varianzverhältnisse sind nicht gleich
QM1_16
327
→
Versuch einer Interpretation
? Ein letztes Beispiel :
X Y
−2 −1
0 1
2 0
Z
1
1
1
X
−1
1
3
Y
0
2
1
Z
2
2
2
X
0
2
4
Y
1
3
2
Z
3
3
3
Korrelationen von X und Y für Z = 1, 2, 3 : .5, .5, .5
B
Hier gibt es die Korrelation bei konstantem Z
→
Betrachtung der Zentroide der Teilgruppen ( dreidimensional )
Zentroide : ( 0, 0, 1 ) , ( 1, 1, 2 ) , ( 2, 2, 3 )
→
Zentroide liegen auf einer Gerade
2
Varianzverhältnisse SX
/SY2 für Z = 1, 2, 3 :
→
4, 4, 4
Varianzverhältnisse sind gleich
Partialkorrelation : .5
→
1.5
Endlich klappt es mal
QM1_16
328
→
Interpretation der Partialkorrelation
→ Damit der Spruch zur Partialkorrelation sinnvoll und richtig ist
müssen offenbar einige Bedingungen erfüllt sein
4
In der Tat gilt in der untersuchten Datensituation :
−
→
−
Wenn
−
die Korrelationen für alle z gleich sind
−
die Zentroide auf einer Gerade liegen
−
die Varianzverhältnisse gleich sind
und
und
dann ist
Partialkorrelation = Korrelation bei konstantem Z
4 Bei ähnlich starken Voraussetzungen gilt ein entsprechender Satz
auch auf theoretischer Ebene
4
Derartige Voraussetzungen werden meistens gemacht
→
Dann stimmt der Spruch ja doch wieder !
1.5
QM1_16
329
→ Vektorrepräsentation
→
Vorübungen
Notationen
P Q : Strecke von P nach Q
⊥ : senkrecht
k : parallel
∠ : Winkel
→
Eine Frage zu ( orthogonalen ) Projektionen
♣
Situation :
Gegeben sind : Ebene E , darin Gerade g , Punkt P
tP
..........................
..................
........
..................
........
...................
........
..................
.
.
.
.
.
.
......
.
.
.
.
.
.
.
.
.
.
.
............
.
.
.
.
.
.
.
.
..........................
.
.
.
.
.
.
.
.
.
............
........
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
...
.......
.
.
.
.
.
.
........................
.
........
.
.
.
.
.
........
........
............
........
........
............
.
.
.
.
.
.
.
........
.
........
.
.
.
........
.
........
.
........
.
.
.
.
.
.
.
.
........
........
.......
.
.
.
.
.
.
.
.
........
.
........
.
.
.......
.
.
.
........
.
........
.
.
.
.
.
.
.
........................
........
.......
...
........
..........
........
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
............
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
........
.................
........
..................
........
...................
........
..................
........ ....................................
....
E
→
g
Aufgabe : Lot von P auf g
Erste Möglichkeit : direkt
Vorschlag : Erst Lot auf E , dann von dort Lot auf g
?
1.5
Gleiches Ergebnis ?
QM1_16
330
Situation
tP
.............................
..................
........
...................
........
..................
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
....
..
...................
....................
..................
.
.
.
.
.
........
...........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
...........
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
..............
........
.
.
.
.
........
.
.
.
.
.
........
.
........
.......
.
.
.
.
........
.
.
.
.
.
.
.
........
........
.......
.
.
.
.
.
.
........
.
.
.
.
.
........
.......
........
.
.
.
.
.
.
........
.
.
.
.
.
........
........
........
.
.
.
.
.
.
........
.
.
.
.
........
...
........
........ ......................
........
........
...
........
...................
........
.
.
.
............ ...
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
..
........
...................
........
..................
........
...................
........ .....................................
....
E
g
Zweimal Lote fällen von P auf g
tP
tP
...
..
...
.....
.....
...
....
.
.
...
.
.
....
...
.
.
.
..
...
.
.
.
.
...
....
.
.
.
..
..
.
.
.
.
.
.
.
.
................... ............
............ ................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....
........
...........
.
............ ......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ...........
.
.
.
.
........
...
............
............
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.
........
....
....
....
... ..........................
.. .
...................
...................
........
.....
........... ...............
..................
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
..
.......
...........
...........
...... .....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
..
...
.............
.............
........
.....
............
........
............
........
........
...
........
.... ......................
........
............
.
.
.
.
.
........
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
........
........
...
.................
........
......
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
........
...
........
....................
.....
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
........
...
............
........
.......
........
........
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
........
........
........
..
..
...
........
............
........
........ ......................
........ ......................
........
............ ...
.......
........
........
......
.......
........
........
..........
.
.
.
.
.
.
.
.
..................
.
.
.
.
........
.
.
.
.
.
.
.
.
.
........
.................
.
.
............
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
........
...........
.
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
........
..
.......
........
........
...................
...................
........
..................
........
..................
........
...................
........
..................
........ ....................................
..........................................
....
L1
E
t
L12
E
g
t
g
links : direkt - Ergebnis : L1
rechts : in zwei Schritten
?
→
1.5
0
tL2
- Ergebnis : L02
−
erst auf E
−
dann von L02 auf g - Ergebnis : L2
L1 = L2 ?
Ja !
QM1_16
331
•
L1 = L2
E 0 : Ebene ⊥ g durch P
o
n
− Schnittpunkt : L1
− Schnittgerade : h
(h⊥g)
...............
...............
............
............
...
...
............
............
............
............
...
...
............
............
...
...
............
............
............
............
...
...
............
............
.
...
.
............
............
............
............
...
....
............
............
.
...
.
............
............
..
............
............
...
.
.
............
............
.
...
.
............
............
..
............
............
...
.
.........
.........
..
...
.
....
....
...
....
...
...
...
...
.
.
.
.
.
.
.
...
...
.
.
.
.
..
......
.
.
.
.
.
.
.
.
.
.
.
...
.
.
...
.
.
....
.... ....
.
.
.
.
.
.
...
.
.
.
.
...
.
.
..
.. ..
.
.
.
.
.
.
.
.
.
...
.
.
.
...
...
.
.
....
....
.
.
.
.
.
.
.
...
.
.
...
.
.
...
.
.
..
..
.
.
.
.
.
.
.
.
.
...
.
.
.
...
...
.
.
....
....
.
.
.
.
.
.
...
.
.
...
.
.
.
...
.
..
..
.
.
.
.
.
.
.
.
.
...
.
.
.
.
...
...
.
.
....
....
.
.
.
.
.
.
...
.
.
...
.
.
...
.
..
..
.
.
.
.
.
.
.
.
.
...
.
.
.
.
...
.
...
.
.
....
....
.
.
.
.
.
.
...
.
.
...
.
.
...
.
.
..
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
...
.
...
...
................
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
............
............
.......
...
...........
..
..
...........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............
.
.
.
.
.
.
.
.
.
........................
.
.
.
... ............
.
.
.
............
........
...
..
. ............
............
...
.
........
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
............
............
........
........
...
........
........
..
.
..
.
.
............ ........
.
.
.
.
.
.
.
.
.
.
........
.
.
.
...
.
.
.
........
...
........
............ ....
...
.
.................
........
.
.
.
.
.
.
.
.
.
.
.....................
.
.
.
.
.
.
...
.
.
.
.
........
........
...
........
.
....... ........................
....... ........................
.
.
.
.
........
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
................
................
...
........
.........
........
.
.........
.......
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
... ...........
.
.
.
................
................
........
...
.
. ............ ..................
........
...........................
..
.
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
.
................ ..
......
.........
......
.
........
.
.
................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
............
........
........
.
.
...... ...................
............
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
............
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
........
............
.
.
............ ...
...........
...........
.......
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
.
.
.
.
.
.
.
.
.
.........................
.........................
........
........
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
.
.
.
.
.
.
.
........
..
.....
........
.............
............
..................
.............................
...................
....
....
........
............
..................
............
........
..................
........
............
...................
...
...
............
........ .....................................
............
......................................
............
...........
...
...
............
............
............
............
...
...
............
............
.
.
...
............
............
............
............
....
...
............
............
.
.
...
............
............
..
.
............
.
.
.
.
...
............
.
............
.
.
.
.
.
.
.
.
...
............
............
..
............
............
.
...
............
............ ...
...............
...........
.
E0
E0
tP
h L1
E
tP
E
t
g
h L1
t
g
g0
→
tQ
Weiter rechte Abbildung :
Lot von P auf h : Fußpunkt : Q
g 0 : Parallele zu g durch Q
P Q ist ⊥ zu h und g 0 ( wegen g 0 ⊥ E 0 )
P Q ist ⊥ zu E
→ Q = L02
Wegen g ⊥ h ist L1 Fußpunkt des Lots von L02 auf g
→ L1 = L2
1.5
QM1_16
332
→
Skalentransformationen
♣
Gegeben :
−
Achse mit Nullpunkt ( 0 ) Richtung und Einheit ( e )
e
..
.
....................................................
....
....
t
...............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
0
→
Hierdurch wird eine Skala etabliert :
−3
s
−2
−1
0
1
2
3
4
s
5
s
..
..
..
..
..
..
..
..
..
..........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
Q
?
→
−
→
P
Skalenwerte der Punkte P und Q : 4.5 und −3
Bedeutung der Skalenwerte : Abstand zu 0 in e - Einheiten
links vom Nullpunkt : negatives Vorzeichen
Aufgabe :
− Was passiert beim Übergang zu einer anderen Einheit ?
....
...
....................................................
..
..
...
..
.............................................................................
...
...
..............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
t
e1
e2
0
1.5
QM1_16
333
Gegeben sind jetzt zwei Einheiten : e1 und e2
....
..
...................................................
...
...
..
.
.............................................................................
....
....
t
e1
e2
..............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
0
Es entstehen zwei Skalen
Skala 1
−2
−1
0
1
2
3
4
5
s
..
..
..
..
..
..
..
..
.
.
.
.
.
.
.
.
..................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
..
..
..
..
..
−1
Skala 2
0
Es gelte : e2 = k e1
→
−
?
1
2
3
( im Beispiel : k = 1.5 )
Gegeben sei Punkt P
Skalenwerte : x1 auf Skala 1 , x2 auf Skala 2
Beispiel :
Skala 1
−2
−1
0
1
2
3
s
4 P 5
s
..
..
..
..
..
..
..
..
..........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
..
..
..
..
..
Skala 2
?
−1
0
1
2
3
Umrechnung x1 ↔ x2 ?
Es muss gelten : x2 e2 = x1 e1
x2 ( k e1 ) = x1 e1
→
?
1.5
oder
Umrechnungen also : x1 = k x2
( x2 k ) e1 = x1 e1
und
x2 = (1/k) x1
Im Beispiel : x1 = 4.5 und x2 = 3 bei k = 1.5
QM1_16
334
→
Allgemeine Koordinatensysteme
−
Achsen müssen nicht orthogonal sein
−
Einheiten der Achsen müssen nicht gleich groß sein
......
..............
.............
...
............. ....
..
................
.
.
...............
.
.
.
.
.
.
.
..
.
.
.
.
.
.
...
.
.
.
....
..
...
...............
..
............................
.
.
.
.
. ..
..................
...
..
..
..
..
...
..
.
.........
.
.
.
.
.
.
.
.
.. ...
.................
...
.
............. ..
..
..
.............
..
.............
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
..
...
..............
...................
.. .............. ....
..
..............
.
...............
...
.............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
......
............. ....
.
.............
...
..
..............
... ............... ..
..............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........ ...
.
.
.
.
.
.
.
.
.
.
.
.
....
.................
...
.............
..
.............
..........
................
.
.............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
..
............. ...
.............
....
..............
.................
............. ...
.
.............
..
...
.
..
...........
...
...
.
...
.................
.
...
...
tP
x2
x1
1
1
?
Der Punkt P hat die Koordinaten ( 1.5 , 2 )
!
Achtung :
−
Ablesen mit Hilfslinien parallel zu den Achsen
−
−
1.5
an den Endpunkten der Achsenabschnitte
Nicht ( ! ) mit Loten auf die Achsen
QM1_16
335
→
Allgemeine Koordinatensysteme – mit ‚ absolutem ‘ Maßstab
Zusätzlich zum Koordinatensystem jetzt : Längenmaßstab
?
Beispielsweise hier mit Einheit 1 cm
..................
..
...... .
......
......
.
.
.
.
.
....
.
.
.
.
.
.
......
......
......
......
......
......
......
.
......
.
.
.
.
.
...... ......
......
.
......
........
......
...... .....
......
......
...
......
..........
.
.
.
.
.
.
...
.
.
.
.
......
..
....
...
......
...... ...........
......
.
......
.
.
...
.
.
.
......
....
.
...
.
.
.
.
.......
....
...
.
.
.
.
.
.
.
.
.
.
.
...
... ........
....
.
.
.
.
.
.
.
......
......
.
...
......
.................
...
.
......
.
.
.
.
...
......
....
.
.
.
.
.
.
...
.
.
.
....
.... .........
.
.
.
.
.
.
...
.
.
.
.
......
....
.
.....
.
.
.
.
......
.
...... ..........
...
......
....
...
......
.
.
.
.
.
.
.
....
....
..
.
.
.
.
.
...... ..........
.
.
......
......
...
......
......
...
...... ...........
...
..........
...
.........
.
.
.
.
.
.
.
.
......
....
......
...
......
......
...
......
......
......
...
......
...... ............
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ........
....
...
......
......
...
......
......
......
......
...
......
......
......
...
.
...... ...........
.
.
.
.
. ..
......
...
....... ...........
.....
...
......
......
......
...
......
......
...... .....
......
.
.
.
.
.
.
.
.
....
...... ...........
...... ..........
...
......
.....
......
......
......
......
.
.
.....
.
.
.
....
.
.
......
.
..........
.
.
...... .........
...... ..........
.
.
.
.
.
.
......
.......
.
.
......
.
.
....
......
......
......
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
......
......
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
......
.
.
......
.
.
.
..
..
..
..
..
..
..
..
..
..
..
......
....
.
.
.
.
.
.
.
.
.
.
.
.........
...
...
...
...
...
...
..
..............
x2
1
tP
1
x1
0
1
5
Skaliere Achsen alternativ mit ‚ absoluter ‘ Einheit
?
Umrechnung der Skalenwerte ?
Hierzu :
4
k1 , k2 : Achseneinheiten in ‚ absoluten ‘ Einheiten
Also :
− Einheit von Achse i = ki absolute Einheiten
?
1.5
Hier : k1 = 2 , k2 = 2.5
QM1_16
336
Koordinatenumrechnung :
− Achseneinheiten ↔ absolute Einheiten
............
.........
...... .
......
......
.
.
.
.
.
.
......
......
......
......
......
.
.
.
......
.
.
......
..
......
...... ...........
......
......
........
......
...... ....
.....
......
.
.
.
.
.
...
.
....
..........
...
......
...... ...........
...
...... ...........
......
......
.
.
.
...
.
......
.
.
....
......
...
.
.
.
.
.
......
...
....
.
.
.
.
.
.
.
.
.
.
.
.
...
... .......
....
.
.
.
......
.
.
......
...
...... ..........
......
...
......
......
.
.
.
...
......
....
.
.
.
.
.
.
...
.
.
.
.
...
... ........
.
.
.
.
.
.
.
.
...
.
.
.
.
......
....
.....
.
.
.
......
.
.
.
...... .........
......
...
.....
...
.....
.
.
.
.
.
.
.
.
.
.
. ..
..
....
.
.
.
.
...... ..........
.
.
.
.
......
......
...
......
......
...
...... ...........
...
...........
...
.. ......
.
.
.
.
.
.
.
......
....
...
......
......
......
...
......
......
...
......
.......
...... ...........
...
.
.
.
.
.
.
.
.
.
.
.
.
.
... ........
....
...
......
......
...
......
......
......
......
...
......
......
......
...
.
...... ...........
.
.
.
.
.
.
. ..
......
...
....... ..........
......
...
......
......
......
...
......
......
...... .....
......
.
.
.
.
.
.
.
.
.
..
...... ...........
...... ...........
...
......
.....
......
......
......
......
.
.
....
.
.
.
....
.
......
.
.
...........
.
.
...... .........
...... ...........
.
.
.
.
.
.....
......
.
.
.
.
......
.
....
......
......
......
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
......
......
.. .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
......
.
.
.
......
.
.
.
.
...
.
...
...
.
...
.
...
...
.
....
......
.
.
.
.
.
.
.........
...
...
...
...
...
...
.............
x2
1
tP
1
x1
0
1
5
k1 , k2 : Achseneinheiten in ‚ absoluten ‘ Einheiten
x1 , x2 : Koordinaten in Achseneinheiten
a1 , a2 : Koordinaten in absoluten Einheiten
→
?
Umrechnung :
k1 = 2 ,
a1 = 3 ,
x1 = 1.5 ,
xi = (1/ki ) ai
k2 = 2.5
a2 = 5
x2 = 2
Sprechweise :
−
1.5
und
Im Beispiel ( Punkt P ) :
−
−
−
ai = ki xi
Achsenkoordinaten ( xi ) ↔ absolute Koordinaten ( ai )
QM1_16
337
→
♦
Erinnerung an den Kosinus
Definition vereinfacht über Illustration :
−
..
..
.........
...
..
..
..
.
......
..... ..
.... .. ..
.
.
.
... .
..
.
.
.
.
.
.
.
.....
.
....
.
.
....
.
.
.
.
.
.
.
.
....
.
.
.
.
.
..........
.
.
.
.
.
.
... ..............
.
.
.
.
.
.
... .. ...
.
.
.
.
.
...
...
.
.
.
.
.
...
.
.
...
.
.
.
.
...
.
.
.
.....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
..
..
..
..
.
.
..
..
...
...
....
............
..
.
..
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
..
..
.
..
y
1
....
...
1
..........α
...................
cos(α)
1 x
Funktionsgraph :
.......
.........
...
..
...
..............
.
.
.
.
.
......
.
.
.
.
.
.
........
..........
......
.
.
.
.
......
.
.......
....
.
.....
.....
.
.
.
.....
.....
...
.
.
.
.
.
.
.
.
.
.
.....
....
.....
.....
.....
....
....
....
....
...
...
...
...
...
...
...
.
.
.
.
...
..
..
...
...
...
....
...
...
...
...
...
........................................................................................................
...
...
...
.
.
.
.
.
....
..
...
...
...
.
...
.
.
.
.
.
.
...
..
..
...
...
...
....
...
....
....
...
....
.....
....
.
.....
.
.
.
.
.
.
.
.
.....
...
.....
.....
.....
.....
......
.....
......
......
......
......
........
........
...............................
..............
1
.5
−180◦
B
−
1.5
−90◦
−.5
−1
cos(α)
α
90◦
180◦
270◦
360◦
( Lokale ) Umkehrfunktion : arccos ( arcus cosinus )
arccos ist definiert auf [ 0◦ , 180◦ ]
QM1_16
338
Kosinus
..
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
..
.
..
..
..
...
y
1
.........
.....
.
...
..
..
. ..
...
...... .
..... . ...
.... ..
.
.
.
..
...
.
.
.
.
.
.
.
.
.....
.
.
.....
.
.
....
.
.
.
.
.
.
...
.
.
.
.
.
.
....................
.
.
.
.
.
... .......
.
.
.
.
.
...
.
...
.
.
.
.
...
.
.
...
.
.
.
.
.
...
...
.
.
.
.
.
.
..
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
..
..
..
..
..
..
..
..
.
.
...
...
....
............
..
1
..........α
...................
cos(α)
1 x
.......
..........
...
....
..
..............
.
..
.
.
.
.
.
.
.
.
........
.............
......
.
.
.
.
.
.......
.
......
.....
......
.
.....
.
.
.
.....
.....
.
...
.
.
.
.
.
.
.
.
.....
....
....
.....
....
....
....
.....
.....
...
...
...
...
...
...
...
.
.
.
.
...
.
..
...
...
...
....
...
...
...
...
...
...
...
........................................................................................................
...
.
.
.
.
.
.
....
...
...
...
...
...
...
.
.
.
.
...
.
.
...
...
...
....
...
....
....
...
...
.....
.....
.
.....
.
.
.
.
.
.
.
.
.
.....
.
....
.....
.....
.....
......
.....
.....
......
.....
......
........
......
........
................................
..............
1
.5
−180◦
→
−90◦
−.5
−1
cos(α)
α
90◦
180◦
270◦
360◦
Nützlich:
−
cos(0◦ ) = 1
−
cos(60◦ ) = .5
−
cos(90◦ ) = 0
−
cos(180◦ ) = −1
−
cos(−α) = cos(α)
−
cos(180◦ − α) = − cos(α)
−
Kosinus ist positiv für spitze Winkel, negativ für stumpfe
1.5
QM1_16
339
→
Rechtwinklige Dreiecke
.
........
.
.
.
. .
.... ....
.
.
.
..
.
...
....
.
.
.
.
..
.
.
.
... b
c.......
...
.
...
.
...
.
.
.
.
...
.
.
...α
..
.
.
.
...........................................................
a
∠ ( a, b ) = 90◦
.....
....
...
...
...
...
...
→
Pythagoras :
a2 + b2 = c2
→
Rechtwinklige Dreiecke und Kosinus :
a = c cos(α)
B
Beachte Ähnlichkeit mit Dreieck aus der Definition des Kosinus
→
Allgemeiner für beliebige α :
−
Dabei : a auf Gerade mit ausgezeichneter Richtung
..........
... .........
........
..
........ c
...
........
b ...
........
........
...
.... α
..
......................................................................................
a
∠ ( a, b ) = 90◦
....................................
.......
.....
.....
.....
....
...
.
.
...
..
...
...
..
..
..........................................................................................................................................................................................................................................................................................
..
Vereinbarung : a soll hier negativ sein ( ‚ Skalenwert ‘ )
−
Dann gilt wieder :
−
Außerdem Pythagoras :
1.5
a = c cos(α)
a2 + b2 = c2
QM1_16
340
→
Vektoren ( vereinfacht )
♣
Situation : ( ein- , zwei- , drei- , . . . -dimensional )
−
Ein Punkt ist als Nullpunkt ausgezeichnet
♦
Vektoren sind Pfeile, die von diesem Punkt ausgehen
?
Beispiele von Vektoren ( hier zweidimensional ) :
.....
... ..........
... ....
..
......t...........
.
.
.
.
.
.........
.
..........
...... ....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.......
..
...
.
.......
Bezeichnungen von Vektoren : fette Kleinbuchstaben ( x )
→
Operationen mit Vektoren
Vervielfachen eines Vektors
4
Richtungswechsel bei negativen Vielfachen
?
Beispiel : Ein Vektor x sowie 2 x und (−1.5) x :
(−1.5) x
....................
... ..............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
...................
...............
..t................. x
..................
1.5
2x
QM1_16
341
→
Operationen mit Vektoren
Addition von Vektoren
−
?
Zweiten Summanden an der Spitze des ersten ansetzen
Beispiel
.......
....
..
y .......
.....
.
.
....
.
.
.... x + y.......
....
..
.... .......
.........
.t................
...................
...................
.................
x
.......
..........
. ...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
Differenz von Vektoren : y − x
−
Entweder : y + (−1) x
−
Oder : Welcher Vektor ergibt zu x addiert y ?
.......
....
...
y − x ......
......
....
.
y ..
....
.... ....
.... ..
......
−x
.t............
...............
...............
...........
x ..
.................
.... ..........
..........
..........
..........
..........
..........
..........
..........
..........
..........
...
..................
.... ..........
..........
..........
..........
..........
..........
..........
..........
..........
..........
...
1.5
.......
....
...
y − x ......
......
....
.
y ..
....
.... ....
.... ..
......
.t............
...............
...............
...........
x ..
.......
..........
. ...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..
QM1_16
342
Die Addition von Vektoren ist kommutativ
?
Beispiel
.......
.......
....
....
....
..
y .....
y .......
......
....
.
.
....
....
....
.
.
x
+
y
y
+
x
.
.
.
.
.
.
....
....
....
....
.
.
....
.
.
.
.
.
.
....
.... ......
....
.
.
.
.
.
.
.
.
.......
.......
.t..............
.t..............
...................
...................
...................
...................
...................
...................
.
.
x
x
.......
..........
. ....
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
.
?
.............
.............
.............
.............
.............
.............
.............
.............
.............
............. ..
..................
.........
Beide Darstellungen zusammen :
......
....
..
y ......
.....
.
....
.
.
.
.... x + y.....
....
..
.... ........
.... ....
..t..............
...................
...................
....................
...
x
.............
.............
.............
.............
.............
.............
.............
.............
.............
............. ..
..................
...................
..........
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
B
1.5
Beachte das Parallelogramm !
QM1_16
343
Linearkombinationen
♦ Sind x1 , . . . , xn Vektoren und a1 , . . . , an Zahlen, so heißt
X
ai x i
auch Linearkombination der xi mit Koeffizienten ai
4
?
Hier gibt es nichts in der Art einer additiven Konstanten
Beispiele von Linearkombinationen
......
....
...
y ......
....
....
....
....
1.5 x + .5 y
....
....t....................................................................................................
... ..........................
...................
...
............
...
x
...
...
...
...
...
... (−.5) x − 1.5 y
...
......
.........
....
... .......
......
..
......
..
.......
..
...
. ....
..
......
.......
..
......
..
......
..
..
......
..
..
......
..
..
..
......
..
..
..
......
..
..
......
..
..
......
..
..
......
..
..
..
......
..
..
...........
..
..
.......
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
..
.. .
.......
.
→
♦
Ad-hoc-Definition der Linearen Unabhängigkeit
Linear unabhängig ( l.u. ) heißen
−
zwei Vektoren , falls sie nicht auf einer Geraden liegen
−
drei Vektoren , falls sie nicht in einer Ebene liegen
1.5
QM1_16
344
→
Linearkombinationen
Die Vielfachen eines Vektors x 6= 0 bilden eine Gerade
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
.............
...
..t................. x
..................
4
Gemeint ist genauer :
−
die Spitzen der Vielfachen von x bilden eine Gerade
4
Es soll die griffigere Sprechweise oben benutzt werden
B
Die Gerade ist dabei die Gerade , ‚ auf der x liegt ‘
Sprechweise auch : die von x aufgespannte Gerade
Analog bei zwei l.u. Vektoren x und y :
−
Die Linearkombinationen von x und y bilden eine Ebene
....................................
........
......................
......................
..........
......................
........... ................
......................
.
.
.
.
.
.
.
.
.
...........
.
.........
.
.
.
.
.
.
.
.
.
.
...........
............
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
......
.............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
......
.
..............
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
.......
.
......................
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.........
..
.........
.........
............................
.........
.........
. ........
.
.
.........
.
.
.
.
.
.
.........
.
.
.........
.........
.......
.
.
.........
.
.
.
.
.
.
.
.
.
.........
.
.
.
.........
.........
.......
.
.
.
.........
.
.
.
.
.
.
.
.
.
...
.
.
.........
.........
......
...............
.........
..............................
.....................
.
.
.........
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.........
.............
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
......
.........
.........
......................
.
......................
.........
.........................
.........
......................
.........
.....................
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..........................
.........
.........y
.
.
.
.
.
.
.
.
.
.
.
.
.
..t..........
....
x ....
B
Die Ebene ist dabei die , ‚ auf der x und y liegen ‘
Sprechweise auch : die von x und y aufgespannte Ebene
B
Alle Punkte der Ebene sind Linearkombinationen von x und y
1.5
QM1_16
345
Längen von Vektoren
♦
→
k xk : Länge des Vektors x
( Norm )
Offenbar gilt : k axk = |a| k xk
Vektoren und Koordinatensysteme
♣
Gegeben : zwei l.u. Vektoren x und y
Betrachte die von x und y aufgespannte Ebene
→
Die Vektoren etablieren hier ein Koordinatensystem :
..............
........
...... .
......
......
.
.
.
.
.
......
......
......
......
......
.
.
.
......
.
.
.
......
.
......
...... ...........
......
......
.......
......
......
......
......
.
.
.
.
.
.
...
..........
......
...... ...........
...... ...........
......
......
......
.....
......
......
.
.
.
.
.
....
......
......
...... ...........
......
......
......
...... ...........
......
.......
......
.
.
.
.
...
......
..........
......
....... ...........
......
......
......
......
......
...... ...........
......
.
.....
.......
......
...... ..........
......
......
......
......
......
...... ............
.. ...
..........
....... ...........
......
......
......
......
.
.
.
.
.
......
...
...... ...........
........
.
.
.
.
...... ..........
....
.
.
.
.
......
.
....
.
......
.
.
.
.
...
......
......
......
...
...... ..........
...........
.......
....... ..........
.
.
......
......
....
.
.
.
.
.
......
....
.
.
.
.
......
.
..
......
......
...... ...........
...... ...........
....
......
.
.
.
.
.
......
....
.
.
.
.
......
.
.
.....
......
......
......
.
.
...........
.
.
.
...... .......
...... ...........
.
.
.
.
.
.
.
.
......
....
.
.
.
......
.
.
....
......
......
......
......
......
......
.
.
......
.
.
.
...
...... .
......
........
.............
y
1 ..
.......
.
.
.
.
.
.
...... y
.
.
.
.
.
.t..........
......
...... x
......
......
1
x
−
Ursprung im Nullpunkt
−
Einheiten an den Vektorspitzen
Name für das Koordinatensystem : x - y -System
Bennenung der Koordinaten : x , y
1.5
QM1_16
346
Linearkombinationen und Koordinatensysteme
→
?
Gegeben nun : Linearkombination u der l.u. Vektoren x , y
Beispiel : u = 1.5 x + 2 y
..............
........
...... .
......
.
.
.
.
.
.
......
......
......
......
......
.
.
.
.
.
.
......
......
......
......
...... ...........
......
..
......
.........
......
...... ...........
.
.
.
.
......
.
......
...
......
......
.........
......
......
....... ...........
......
...... ...........
......
......
......
......
......
.
.
......
.
.
.
......
...
......
.
.
.
.
.
.
.
.
.
.. .
......
....
.
.
.
...... ...........
.
......
.
......
...
.
......
.
......
.
.
.
.
...... .....
......
......
.
.
.
.
.
......
.
......
...
.
.
.......
......
.
.
.
. ......
....
........
.
.
.
.
.
.
.
.
.
.
.
......
...
....
.
...............
.
.
......
.
......
.
....
.
......
...............
.
.
.
.
.
............
......
.........
.
.
.
.
.
.......
.
.
...
....
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
... ........
....
......
......
......
......
......
......
......
...... ...........
......
...........
......
.
.
.
.
.
.
.
.
.
.
.
. ..
......
....... ..........
......
......
......
......
......
......
......
......
......
......
.
...... ............
.
.
.
.
.
.
.
.
.
. ..
......
......
...... ..........
......
......
......
......
......
......
......
......
......
......
......
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...... .......
.........
......
.......
...... ...........
......
......
......
......
......
......
......
......
......
...... ............
.
.
.
.
.
....
........
...... ............
...... ..........
...
......
......
......
......
......
.
.
.
.
.
......
....
.
.
.
.
.
... ...
......
..
....... ..........
...... ...........
......
......
.
.
.
.
.
.
.
.
......
....
.
.
.
......
.
.
.
......
......
......
......
.
.
.
.
.
......
....
.
.
......
.
.
.
........
......
................
y
1
y ............
u
.
.
.
...................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....
.................................
..t.....................................
......
...... x
...... .
......
1
x
Offenbar liegen aufeinander :
−
verschobene Vektoren zur Herstellung von u aus x , y
−
Hilfslinien zum Ablesen der Koordinaten von u
−
→
( gemeint ist vereinbarungsgemäß die Vektorspitze )
Daher stimmen überein :
−
Koeffizienten der Linearkombination
−
Koordinaten im x - y -System
1.5
QM1_16
347
Ermittlung von Koeffizienten einer Linearkombination
Gegeben ( graphisch ) : Linearkombination u von x , y
−
Ferner : Maßstab
?
Koeffizienten der Linearkombination ?
...............
.........
......
......
.
.
.
.
.
.
......
......
......
......
......
.
.
.
.
.
......
......
.....
......
...... ...........
......
....
......
........
......
...... ....
.
.
.....
.
.
.
.
...
......
..........
...
......
...... ...........
...
...... ...........
......
......
.
...
......
.......
.
.
......
.
...
.
.
....
.
.
.
.
.
...
.
.
.
.
.
.
.
....
.
...
...... ..........
.
.
.
.
......
..
......
...
...... ...........
......
...
.
.
.
.
......
.
.
.
...
.......
....
.
.
.
.
.
...
...
... ........
.
.
.
.
.
.
.
.
.
.
.
.
...
......
..
....
.
.
.
......
......
.
.
...
.
...
......
.
.
.
.
.
.
.
...........
......
...
.
.
.
.
.
.
..
....
............
.
.
.
.
.
.
.
.
.
.
.
.
......
...
...
......
......
...
......
......
...... ............
...
...........
...
.
.
.
.
.
.
.
.
.
....... ...........
...
......
......
...
......
......
...
......
......
...
...... ...........
.
.
.
.
.
.
.
.
.
...... ..........
......
...
......
......
...
......
......
...
......
......
...
......
......
.
.
.
.
.
.
.
.
.
.
.
.
.
...... ......
.
.........
..
...
....... ..........
......
...
......
......
......
...
......
......
...... .....
......
.
.
.
.
.
...
.......
...... ...........
..... ...........
......
......
......
......
......
......
.
.
.
.
.
...
....
.
.
.
.
......
.
..........
...... ...........
...... ...........
......
......
......
.
.
......
....
.
.
.
......
.
.
.
......
......
.... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... .... ....
......
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.
..
..
..
..
..
..
..
..
..
..
..
....
.
.
......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...
...
...
...
...
...
.........
....
.
.
.
.
.
.
..............
y
1
y............
u
.
.
.
.......................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
..............................
..t......................................
......
...... x
...... .
.....
1
x
0
→
1
5
Lösung : Ablesen der Koordinaten !
Wie Koordinaten ( x , y ) ablesen ohne ‚ Ticks ‘ ?
?
Ermitteln in absoluten Einheiten
B
( → ax , a y )
Ggf. Vorzeichen beachten !
Wegen ax = x k xk , ay = y k yk :
→
?
1.5
Koordinaten : x = ax / k xk , y = ay / k yk
Hier : ax = 3 ,
k xk = 2 ,
ay = 5 ,
k yk = 2.5
QM1_16
348
→
Vektorrepräsentation
♣
Gegeben sind endlich viele Variablen X1 , . . . , Xk
• Es ist möglich , die Variablen durch Vektoren x1 , . . . , xk so zu
repräsentieren , dass
k xi k = SXi
für alle i
cos (∠ ( xi , xj )) = rXi , Xj
für alle i , j
Vektornamen : Variablennamen fett und klein ( X ↔ x )
Sind diese Bedingungen erfüllt , so sprechen wir von einer
( Vektor- ) Repräsentation ( der Variablen X1 , . . . , Xk durch
die Vektoren x1 , . . . , xk )
B
Zweite Bedingung aufgelöst :
∠ ( xi , xj ) = arccos ( rXi , Xj )
?
−
Beispiel : Gegeben sind X , Y mit
SX = 4 , SY = 2 , rX , Y = .5
arccos ( .5 ) = 60◦
→
Mögliche Repräsentation
....
y.....
◦
..
.. . 60
.t.........................................................................
x
......
.....
....
...
...
...
...
...
1.5
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
..
..
..
..
..
..
..
..
..
..
...
...
...
...
...
...
...
.
.
.
.
.
0
1
5
QM1_16
349
?
( Bekanntes ) Beispiel mit drei Variablen
?
Kovarianzmatrix von X1 , X2 , Y

4 −2

−2 9
6 5
−
:

6

5
25
Mittelwerte : MX1 = 4 , MX2 = 1 , MY = 3
−
( hier uninteressant )
Korrelationsmatrix von X1 , X2 , Y :


1
−1/3 3/5


1
1/3
−1/3
3/5 1/3
1
Winkel ( gerundet ) für die Repräsentation :
−
arccos ( −.333 ) = 109◦
−
arccos ( .6 ) = 53◦
−
arccos ( .333 ) = 71◦
→
Repräsentation durch x1 , x2 , y
−
Längen :
−
Winkel :
k x1 k = 2 ,
−
∠ ( x1 , x2 ) = 109◦
−
∠ ( x1 , y ) = 53◦
−
∠ ( x2 , y ) = 71◦
1.5
k x2 k = 3 ,
k yk = 5
QM1_16
350
Vektorrepräsentation – Anmerkungen
Repräsentation kurz :
Variablen
Streuungen
Korrelationen
4
?
•
o
n
4
Vektoren
Längen
Winkel ( via cos )
Je mehr Variablen , um so mehr ‚ Dimensionen ‘ sind nötig
Eindeutigkeit ?
−
→
↔
↔
↔
Verschiedene Variablen ↔ verschiedene Vektoren ?
Nein !
x = y genau dann wenn X = Y + c ( c : Konstante )
X = Y +c
⇔
rX,Y = 1 ,
⇔
∠ ( x , y ) = 0◦ ,
⇔
x = y
SX = SY
k xk = k yk
( Stimmt analog auch falls Streuungen 0 sind )
→ Eindeutigkeit der Repräsentanten : bis auf additive Konstanten
B
1.5
Additive Konstanten ‚ gehen verloren ‘
QM1_16
351
→
Anwendung : Abschätzung von Korrelationen
♣
Gegeben : Variablen X , Y , Z
−
?
−
→
rX, Y = .5 ,
rY, Z = .8
rX, Z = ?
Kann man Grenzen angeben ?
Betrachte Vektorrepräsentation durch x , y , z !
arccos ( .5 ) = 60◦ ,
∠ ( x , y ) = 60◦ ,
?
→
−
→
arccos ( .8 ) = 37◦ ( etwa )
∠ ( y , z ) = 37◦
Was kann man über ∠ ( x , z ) sagen ?
Geometrische Einsicht : ∠ ( x , z ) wird minimal / maximal ,
falls x , y , z in einer Ebene liegen
Richtungen von x , y und ‚ Extremrichtungen ‘ für z
.
......
...
.........
........
........
.
.
.
...
...
...
...
...
...
...
...
..
.
...
...
...
..
...
...
................
...
...
..... .
....
...
.....
.
.
...
.
.
...
....
...
..
.....
...
.....
...
...
........
.....
...
.. ...................
.....
.
.
.
.
.
.
.
.......
...
.....
......
...
...
.....
......
...
...
..... .........
...
........
...
......
.
...
..
.
.
.
.
.. ..
.................................
..... .....
.........
...
...
.....
.......
...
...
...
...... .........
...
...
..........
...
.
...
...
....
.
...
.
.
...
...
.
...
.
...
.
...
... ..
.
.
.
...
...
... ...
.
.........
.
.
.
...
... ...
...
.
..........................
.
.
.
.. ...........................................
... .. ......
.
.
... .. .....
.......................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..... ......
.
........
...............................................
x
z1
37◦
y
◦
60
37◦
z2
t
Maximaler / minimaler ∠ ( x , z ) : 97◦ / 23◦
→
1.5
Minimales / maximales rX, Z : −.12 / .92
( etwa )
QM1_16
352
Vektorrepräsentation – Erweiterung
♣
Gegeben : Repräsentation von X1 , . . . , Xk durch x1 , . . . , xk
→
Ziel : Erweiterung auf Linearkombinationen
Repräsentiere Linearkombination der Variablen
−
♦
−
4
durch ‚ entsprechende ‘ Linearkombination der Vektoren
Genauer :
Repräsentiere
U =
P
ai X i + b
durch
u =
P
ai x i
Additive Konstante b bleibt unberücksichtigt
Nun sind auch alle Linearkombinationen der Xi ‚ repräsentiert ‘
Ergebnis : Erweiterte Repräsentation
?
Bleiben Eigenschaften erhalten ?
→
1.5
Ja ! Zusätzlich werden Linearkombinationen respektiert
QM1_16
353
Vektorrepräsentation – Erweiterung
• Für die erweiterte Repräsentationen der Linearkombinationen U
der Variablen Xi durch Vektoren u gilt
k uk = SU
für alle U
cos (∠ ( u1 , u2 )) = rU1 , U2
für alle U1 , U2
P
Ist ferner V =
ai Ui + b eine Linearkombination der U , so
wird V repräsentiert durch
X
ai u i
4
V ist hier auch Linearkombination der Xi also ‚ ein U ‘
Erweiterte Repräsentation der Linearkombinationen kurz :
Variablen
Streuungen
Korrelationen
Linearkombinationen
B
↔
↔
↔
↔
Vektoren
Längen
Winkel ( via cos )
entsprechende Linearkombinationen
Bei Linearkombinationen :
−
Links : Linearkombinationen von Variablen
−
Rechts : Linearkombinationen von Vektoren
−
Koeffizienten bleiben gleich
−
Additive Konstante bleibt rechts unberücksichtigt
4
−
1.5
Wegen cos ( 90◦ ) = 0 :
unkorreliert ↔ orthogonal
QM1_16
354
?
Ein Beispiel
♣
Gegeben sind Variablen X , Y mit
−
→
SX = 4 , SY = 3 , rXY = −.75
Interessant seien nun Linearkombinationen :
−
?
U = 2X + Y + 3 ,
Streuungen und Korrelation von U , V ?
Rechnung :
→
→
V = X −Y −7
Kovarianzmatrix von U , V :
!
37 32
32 43
SU = 6.08 , SV = 6.56 ,
Graphische Lösung :
rU V = .80
( arccos ( −.75 ) = 139◦ )
........
u ..................
......
...
.
.............
.
.
.
.
.
.
.
.
.
y ..........
.
.
.
...
......
.............
.
.
.
.
.
.
.
.
......
.
.
.
.
...... ......................
...t..............................................................................
...............
x
...............
...............
...............
............... v
...............
................
−y
5
..
...................................................................................................................
..
.....
..
..
..
..
..
..
..
..
..
..
..
..
..
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
..
..
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ..
..
...
...
..
...
..
...
..
...
..
...
..
..
...
..
...
...
...
...
...
.. .
.
........
0
→
1.5
1
∠ ( u , v ) = 37◦ ,
2x
cos ( 37◦ ) = .80 – klappt !
QM1_16
355
→
Graphische Ermittlung der Korrelation
♣
Situation : u und v repräsentieren Variable U , V
..t.................
.... .................
.... α ................. v
.................
....
.
....
....
....
....
....
....
....
...
u .........
.
...
...
...
...
.
.
.
.
.....
.....
rU V = ?
?
→
?
→
Winkel α messen , rU V = cos ( α )
Hier :
α = 37◦ , cos ( 37◦ ) = .8 ( etwa )
Alternative : Lot fällen
..t.................
.... .................
.... α ................. v
.................
....
.
....
....
....
....
....
....
....
...
u .........
5
...
...
..
...
.
.
....
.....
.....
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
..
..
..
..
..
..
..
..
..
..
...
...
...
...
...
...
...
.
.
.
.
.
0
1
....
......
......
.....
.
.
.
.
.
.....
.....
......
......
.....
.
.
.
.
.
..
......
......
.....
Lotfußpunkt in absoluten Koordinaten ( auf u - Achse ) : l
l = k vk cos ( α )
→
rU V = cos ( α ) = l / k vk
?
Hier : rU V = 3 / 3.75 = .8 –
B
Bei α > 90◦ sind cos ( α ) und l negativ
1.5
passt !
QM1_16
356
→
Einfache lineare Regression in Vektorrepräsentation
♣
Gegeben X , Y mit SX = 4 , SY = 2 , rXY = .5
→
Ziel : Regression von Y auf X
−
Interessant sei nur das Gewicht b
→
Rechnung : b = r SY / SX = .5 · 2 / 4 = .25
→
Ziel nun : Graphische Lösung
−
ohne bisheriges Wissen zur rechnerischen Lösung
( arccos ( .5 ) = 60◦ )
Graphische Darstellung
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
..
..
..
..
..
..
..
..
..
..
...
...
...
...
...
...
...
.
.
.
.
.
0
1
5
.....
.
.
y..
..
.. .
.t.........................................................................
x
Mögliche Vorhersagen :
−
Lineare Transformationen Ŷ = b X + a von X
Gesucht : b der optimalen Vorhersage
( a hier irrelevant )
Vorhersage ist optimal , wenn SE minimal ist
−
1.5
( E = Y − Ŷ )
QM1_16
357
Optimale Vorhersage graphisch
→
Gesucht : Vorhersage Ŷ mit kleinstem SE
Mögliche Vorhersagen graphisch : Vielfache von x
−
Also : die durch x aufgespannte Gerade : g
4 Genauer : Die Vektorspitzen der möglichen Vorhersagen bilden
die durch x aufgespannte Gerade
Wir benutzen weiter die griffigere Sprechweise
?
Eine mögliche Vorhersage : Ŷ = .5 X + a
Graphisch samt zugehörigem Fehler :
.....
......
...
.
y
.
e ....
.
... ....
... ..
....t.......................................................................
.
.
x
ŷ
.......
...........
. ....
...
...
...
...
...
...
...
...
...
...
...
..
.......................................................................................................................................................................................................................................................................................................................................................................
g
Diese Vorhersage ist sicher nicht optimal
Bei der optimalen Vorhersage muss e ⊥ g gelten
→
Optimale Vorhersage also durch Lotfällen
..... ......
e ... y...
.. ..
.. ..
.... ...
..t............. ........................................................
x
ŷ
.
......
.........
..
...
...
...
...
...
...
...
...
..
......................................................................................................................................................................................................................................................................................................................................................................
1.5
g
QM1_16
358
Optimale Vorhersage graphisch
Optimale Vorhersage durch Lotfällen
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
..
..
..
..
..
..
..
..
..
..
...
...
...
...
...
...
...
.
.
.
.
.
0
1
5
..... ......
e .... y....
.. ..
.. ..
...t..........................................................................
x
ŷ
.
.......
.........
....
...
...
...
...
...
...
...
...
...........................................................................................................................................................................................................................................................
g
Kontrolle :
−
k ŷk = 1 ,
k xk = 4
→
Achsenkoordinate b von ŷ : 1 / 4 = .25 –
B
Achsenkoordinate : Bzgl. x-Koordinatensystem auf g
stimmt !
4 ( Eigentlich : Koordinate der Spitze von ŷ . . . )
→
−
Konstruktion von e :
Offenbar Lotfällen von y auf Gerade h ⊥ g durch Nullpunkt
..
...
..
...
...
......................................
...
...
...
...
...
...
...
...
...
...
...
.
............................................................................................................................................................................................................................................................
....
..
....
...
...
....
h
...... .......
e ... ... y
.. ..
.. ..
...t....................................................................
..
..
x
ŷ
4
1.5
g
Ganz genau : h ist ⊥ g in der x - y - Ebene
QM1_16
359
→
Kontrolle ( theoretisch )
♣
Allgemeine Situation
.....
....
.. y ....
.
e ....
..
.
.. ..
.. ..
.. ..
.. .. α
...t...................................................................................
x
ŷ
...
......
.........
....
...
...
...
...
...
....
..
...
...
......
...
.....
...
...
...
...
...
...
...
...
...
...................................................................................................................................................................................................................................................................................................................................
g
cos ( α ) = rXY
Lotfußpunkt ( absolute Koordinaten ) : k yk cos ( α )
Lotfußpunkt in x - Koordinaten : k yk cos ( α ) / k xk
Wegen Repräsentationseigenschaften :
k yk cos ( α ) / k xk = SY rXY / SX = rXY (SY /SX ) = b
→
?
Kommt hin !
Alles in Ordnung auch bei negativem rXY ?
....... ....
... y ..
... .. e
... ..
... ...
........................t........................................................................
x
ŷ
.
......
.........
..
...
...
...
...
...
...
...
...
..
...................................................................................................................................................................................................................................................................................................................................
→
1.5
g
Ja ; cos , Koordinaten und Regressionsgewicht jetzt negativ
QM1_16
360
Anmerkungen zur linearen Regression
Fehlerstreuung im Beispiel ?
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
..
..
..
..
..
..
..
..
..
..
...
...
...
...
...
...
...
.
.
.
.
.
0
1
5
..... ......
e .... y....
.. ..
.. ..
...t..........................................................................
x
ŷ
..
......
.........
....
...
...
...
...
...
...
...
...
..........................................................................................................................................................................................................................................................
g
Ausmessen liefert : k ek = 1.7
( etwa )
√
√
Rechnung : SE = SY 1 − r2 = 2 1 − .25 = 1.73
→
Stimmt !
4
Analog : SŶ
( Messen und Rechnen ergeben beide 1 )
Betrachte rechtwinkliges Dreieck ( mit Seitenlängen ) :
......
.....
.. y ...
e ... ...
.. ..
.. ..
.. ..
.. ..
..t..
...................................................................................
x
ŷ
.......
..........
...
....
..
...
...
...
...
...
...
...
...
...
...
...
...
....
.
Pythagoras :
...
.. . ....
.. ..
k yk ... ..... k ek
.. ...
...
.. .
.
.. .
.............................
k ŷk
k yk2 = k ŷk2 + k ek2
Übersetzt ( Eigenschaften der Repräsentation ) :
SY2 = SŶ2 + SE2
→
1.5
Also :
–
Varianzzerlegung !
Varianzzerlegung ↔ Pythagoras
QM1_16
361
→
Multiple lineare Regression in Vektorrepräsentation
♣
Gegeben : Prädiktoren X1 , X2 , Kriterium Y
−
→
−
→
−
Bekannt : Kovarianzmatrix von X1 , X2 , Y
Ziel : Regression von Y auf X1 , X2
Wieder sind nur die Gewichte interessant
Problem soll mit Repräsentation erneut gelöst werden
Also : Fehlerstreuung soll minimiert werden
Vektorrepräsentation einer solchen Situation :
........
.
.
.
.
.
y.
......
.
.
.
.
.
.
......
.
.
.
.
.
.
.......................
.
.
.
.
.
..
........................... x2
..
x1......
...
..................... ................
.........
......
.
......................
........... ................
......................
.........
...........
......................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
......
.............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
......
.............
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
......
.............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
..................
......
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
.
.........
...........................
.........
.........
.........
.. .........
.........
.
.
.
.
.
.
.
.
.
.
.........
.........
.........
.......
.
.
.
.
.
.
.
.........
.
.
.........
.
.
.
.
.
.........
.......
.
.........
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
...
....................
.........
..............................
......................
.
.........
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.........
.
......
.........
.........
......................
....
.........
......................
.........
.......................
.........
......................
......................
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.....................
U
Mit eingezeichnet : U : von x1 , x2 aufgespannte Ebene
Die Punkte von U sind die Linearkombinationen von x1 , x2
Sie repräsentieren also die möglichen Vorhersagen
Abstand eines Punktes aus U zu y
−
ist Fehlerstreuung der zugehörigen Vorhersage
→
Minimale Fehlerstreuung bei minimalem Abstand
→
Lösung wieder durch Lotfällen
1.5
QM1_16
362
→
Lösung des Regressionsproblems durch Lotfällen
.............
.
.
.
.
.
.
y..... ..
.
.
.. e
.
..
.
.
.
.
.
.
.
.
..
......
.
.
.
.
.
.
.
..
.............................
.
.
.
.
.
.
.
.
.
.
x
.
.
......................................2.................................. ....
....
..... .
x1......
ŷ
...
..................... ................
.
........
......................
......................
.......... .................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
...........
...
..
...........
......................
.........
...........
...........................
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.
....
.........
.........
........... ......
......................
.........
....
...........
.........
......................
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
....
..........
.........
.......
.
.
.
.
.
.
.........
.
.........
.
.
.........
.
.
....
........................
.........
.........
.
....
.........
.........
...... .............
.
.
.
.
.
.
.
.
.
.........
.
.........
.
.
.........
....
.......
.
.
.........
.
.........
.
.
.
.
.
.
.
.
.
.
.
.........
.........
........
...
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.
.
.........
...
.
..............................
.
......................
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
...
.........
............
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
......... .....
..............
.
.
.
.
.
.
.
.
.
.
.
.........
.
..........
.
.
.
.
.
.
.
.
.........
.........
.................
.........
... ...........................
.........
......................
.........
.....................
.........
......................
.......................................
U
4
( e ist hier passend zur Addition Y = Ŷ + E dargestellt )
Koordinaten von ŷ im x1 - x2 -System
−
sind Gewichte der optimalen Vorhersage
→
Damit sind die gesuchten Gewichte gefunden
4
Lösung also durch Lotfällen
−
4
‚ normal ‘ bedeutet manchmal ‚ senkrecht ‘
Daher der Name ‚ Normalengleichungen ‘
Das Dreieck aus y , ŷ , e ist rechtwinklig
Wieder : Pythagoras :
k yk2 = k ŷk2 + k ek2
Übersetzt mit Eigenschaften der Repräsentation :
SY2 = SŶ2 + SE2
→
1.5
Also wieder : Varianzzerlegung ↔ Pythagoras
QM1_16
363
?
Schon verwendetes Beispiel
?
Kovarianzmatrix von X1 , X2 , Y

4 −2

−2 9
6 5
→
:

6

5
25
Rechnung lieferte : b1 = 2 , b2 = 1 , β1 = .8 , β2 = .6
−
Determinationskoeffizient : R2 = .68
−
Korrelationen waren : rX1 X2 = −.33 , rX1 Y = .6 , rX2 Y = .33
→
−
−
Vektorrepräsentation durch x1 , x2 , y mit
k x1 k = 2 ,
k x2 k = 3 ,
k yk = 5
∠ ( x1 , x2 ) = 109◦ , ∠ ( x1 , y ) = 53◦ , ∠ ( x2 , y ) = 71◦
Perspektivische Darstellung :
.............
.
.
.
.
.
y . ..
......
.
.
.
.
.. e
.
.
.
.
.
.
.
.
.
.
..
........
.
.
.
.
.
.
.
.
.................2....
..
.
.............................................x
.......... ..................................................
x1
ŷ
...
..................... ................
.....
.........
......................
..
......................
........... ................
......................
.
.
...........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
......
.............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
...... ...
.............
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
....
.........
.........
......
.
..............
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
....
..................
.......
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
....
..
.........
.........
...........................
.........
.
....
. .........
.........
.
.........
.
.
.
.
.
.
.
.
.
.
.
.........
.........
.........
....
.......
.
.
.
.
.
.
.
.........
.
.
.........
.
.
.
.
.
.........
..
.......
.
.
.........
.
.......
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
....
...
.
.
.........
.
...................
..............................
.
...
.....................
.........
.
.
.
.
.
.
.
.
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.........
..............
.
.
.
.
.
.
.
.
.
.
.
.
................
.
.
.
.
.
.
.
.........
.
.....
.........
.........
......................
.....
.........
.....................
.........
.......................
.........
......................
......................
.
.........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......................
U
→
1.5
Passt !
QM1_16
364
Beispiel , Fortsetzung
Die x1 - x2 - Ebene
...
...
...
...
...
...
...
...
...
...
....................................................................................................................................................
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
...
..................................................................................................................................................................................................................................................................................................
...
...
...
...
...
...
...
...
...
.
......
......
.
.
.
.
.
ŷ..
x2 ....
.....
.
...
.
.
.
...
.....
.
.
.
.
...
.
.
...
.....
.
.
.
.
.
... .....
... .....
......................................
x1
4
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
.
..
.
..
..
.
..
.
..
.
.....
....
....
....
....
....
.
.
.
.
.
.
0
1
5
y befindet sich senkrecht über ŷ
−
senkrecht : Zur Zeichenoberfläche
Koordinatenablesen an Endpunkten der Achsenabschnitte :
−
absolut : 4 ( x1 ) , 3 ( x2 )
Wegen k x1 k = 2 , k x2 k = 3 :
−
→
Achsenkoordinaten : 4 / 2 = 2 ( x1 ) , 3 / 3 = 1 ( x2 )
In der Tat : die Gewichte b1 , b2
Die absoluten Koordinaten ( ai ) sind
ai = bi k xi k = bi SXi = ( bi SXi /SY ) SY = βi SY = βi k yk
→
B
−
?
1.5
βi = ai / SY = ai / k yk
β-Gewichte sind also absolute Koordinaten
bis auf Faktor SY = k yk
Hier ( SY = 5 ) : β1 = 4/5 = .8 , β2 = 3/5 = .6 – stimmt !
QM1_16
365
Beispiel , Fortsetzung
Jetzt Lote von ŷ auf die Achsen fällen :
..
..
..
..
..
..
..
..
...........................................................
..
..........
.......... .....
..
.
..........
..
..........
..... ..
..
..........
.
.
.
.
.
.
.
.
.... ...
.
.
..
..........
.. ..
..
..........
.
.
.
.
.
.
.
.
.
.
.
..
..
... ...
..........
..
..
.........
.....
.. ..................
..
...
........
..
...
..
..
...
..
..
..
..
....
..
..
..
..
..
....
..
..
...
..
..
...
..
..
.
.
...
..
..
..
..
....
..
...
..
..................................................................................................................
..
..
..
..
..
..
..
..
..
.
.....
.
.......
...
.
.
.
.
.
x2 ..
.....
...
.
.
.
.
.
.
...
..... ŷ
.
...
.
.
.
...
....
... ..........
... .....
......................................
x1
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
..
...
..
...
..
...
..
...
..
...
...
...
...
...
...
...
...
0
1
5
Erinnerung : Lotfällen von y auf eine Achse
−
Zwei Möglichkeiten :
−
Lot auf U ( → ŷ ) dann Lot von ŷ auf Achse
Direkt
oder
Die Lotfußpunkte in der Zeichnung hätte man auch erhalten ,
−
wenn man direkt von y Lote auf die Achsen gefällt hätte
→
Die Lotfußpunkte liefern die Vorhersagen mit jeweils einem xi
−
also die von einfachen linearen Regressionen mit einem Prädiktor
→
Möglicher Vergleich einfacher und multipler Regressionen
1.5
QM1_16
366
Multiple und einfache Regressionen
Multiple und einfache Regressionen im Bild :
..
..
..
..
..
..
..
..
...........................................................
.....
.... .....
......
.. .
....
........
....
.
...
....
... ..
...
....
.
.
.. ..
.
...
...
.
.
.. ..
.
...
...
.
.
.
...
.
.
..
.. ...
...
....
..
..
...
....
..........
..
.
.
...
..
..
...
..
...
...
..
...
..
..
...
.
..
..
...
..
...
.
.
..
...
..
..
...
...
..
...
...
..
.
.
...
..
.
...
.
..
..................................................................................................................
...................................................................................
......
.
.
.
.
x2
......
.
.
.
.
.
.
......
..... ŷ
.
.
.
.
..
....
ŷ2 ..... .........
... ......
...........................................................
x1 ŷ1
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
..
.
..
.
..
.
.
..
.
..
....
.....
....
....
....
....
.
.
.
.
.
.
0
1
5
Ŷ1 , Ŷ2 : Vorhersagen von Y durch X1 , X2
−
ŷ1 , ŷ2 : Repräsentierende Vektoren
Bei einfachen linearen Regressionen liefern Lotfußpunkte
−
in Achsenkoordinaten : Regressionsgewichte
−
in absoluten Koordinaten : r SY = β SY
−
?
bis auf Faktor SY = k yk also r = β
Im Beispiel sind die Lotfußpunkte
−
in absoluten Koordinaten : 3 ( x1 ) ,
−
in Achsenkoordinaten : 3/2 = 1.5 ( x1 ) , 1.66/3 = .55 ( x2 )
−
1.66 ( x2 )
Das waren in der Tat die Regressionsgewichte
Absolute Koordinaten durch SY = k yk = 5 :
−
3/5 = .6 ( x1 ) ,
−
1.5
1.66/5 = .33 ( x2 )
Das waren in der Tat die Korrelationen
QM1_16
367
→
Vergleich einfache – multiple Regression
..
..
..
..
..
..
..
..
................................................................................................................................................
.. .
..
.......... ........
..
..........
... ..
..
..........
.
.........
.
.
.
.
..
.... .....
.
.
.
.
.
.
..
..........
... ....
..........
.
.
..
.
.
.
.
.
.
.
.
. ..
......
..
... .....
..........
..
...
...
..........
.. ...................
...
...
.......
...
...
...
..
.
.
...
...
..
...
..
..
.
...
.
..
..
...
.
..
...
....
..
...
....
..
...
...
..
...
...
..
...
...
...
..
...
..
.....
.
..................................................................................................................
..
..
..
..
..
..
..
..
..
.
....
.......
...
.
.
.
.
..
x2 ...
.....
.
...
.
.
.
...
...... ŷ
.
.
...
.
.
...
......
.
.
.
.
.
... ....
.........
.....................................
x1
→
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
..
..
..
..
..
..
..
..
..
..
...
...
...
...
...
...
...
.
.
.
.
.
0
1
5
‚ Optische ‘ Vergleiche sind möglich
−
hinsichtlich einfacher Regressionen und multipler Regression
−
über Koordinatenlinien und Lote
Achsenkoordinaten liefern
−
über Koordinatenlinien Gewichte der multiplen Regression
−
über Lote Gewichte bei einfachen Regressionen
Absolute Koordinaten liefern
B
bis auf gemeinsamen ( ! ) Faktor SY = k yk
−
über Koordinatenlinien β-Gewichte der multiplen Regression
−
über Lote Korrelationen mit den Prädiktoren
→
Möglicher ‚ optischer ‘ Vergleich β-Gewichte ↔ Korrelationen
−
was Größenverhältnisse angeht
−
Faktor SY = k yk ist ja überall gleich
1.5
QM1_16
368
→
Varianzaufklärung
→
Vergleich Varianzaufklärung einfache – multiple Regressionen
−
Änderung der Varianzaufklärung
−
bei Hinzufügen oder Wegnehmen von Prädiktoren
..
..
..
..
..
..
..
..
..
.
.....
.....
.....
.... ..
.........
..
....
...
....
..
...
....
.
.
.
..
.
...
....
..
...
....
.
.
.
...
..
...
.
.
...
.
..
...
.
...
.
.
..
.........
..
...
..
...
...
..
...
..
...
..
...
..
...
..
...
..
...
...
..
...
..
...
..
...
.
.
.
.
.
.
.
.
.
..................................................................................................................
............................................................................
..
.......
.
.
.
.
x2
..
.....
.
.
.
.
......
...... ŷ
.
.
...
.
.
..
ŷ2 .... .........
... .....
..........................................................
..
x1 ŷ1
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ... .. .. .. .. ...
.
..
.
..
..
.
..
.
..
.
.....
....
....
....
....
....
.
.
.
.
.
.
0
1
5
Determinationskoeffizient ist jeweils SŶ2 / SY2
Determinationskoeffizienten einfache Regressionen :
−
SŶ2 / SY2 = k ŷ1 k2 /k yk2 = 32 /52 = .36
1
−
SŶ2 / SY2 = k ŷ2 k2 /k yk2 = 1.662 /52 = .11
2
Determinationskoeffizient multiple Regression :
−
SŶ2 / SY2 = k ŷk2 /k yk2 = 4.12 /52 = .67
4
( Hinreichende ) Übereinstimmung mit früheren Rechnungen
B
Gemeinsamer Nenner SY2 = k yk2
→
Varianzaufklärungen verhalten sich wie k ŷ1 k2 : k ŷ2 k2 : k ŷk2
1.5
QM1_16
369
→
Partialkorrelation
Gegeben nun Variable X , Y , Z
→
Z soll auspartialisiert werden
→
Verfahren : Korrelation der Residuen
→
Ziel : Veranschaulichung durch Vektorrepräsentation
Erinnerung an Konstruktion des Residuums in Repräsentation :
−
Hier wird X durch Z vorhergesagt ( Residuum : X̃ )
...
...
..
...
...
......................................
..
..
...
...
...
...
...
...
...
...
...
............................................................................................................................................................................................................................................................
..
...
...
...
...
...
...
..... ......
. .
x̃ .... .... x
.. ..
.... .
..t........................................................................
z
x̂
→
Senkrechte Projektion von x auf Gerade ⊥ z
Analog für Y ↔ y
Zusammen :
−
x und y werden senkrecht projiziert
−
Auf die Ebene ⊥ z
→
Partialkorrelation über Winkel zwischen projizierten Vektoren
4
Projektion auf Ebene , da Situation jetzt dreidimensional
1.5
QM1_16
370
Partialkorrelation
?
Beispiel : Kovarianzmatrix von X , Y , Z :


4 −2 6


−2 9 5 
6 5 25
Bekanntes Beispiel , nur Variablen umbenannt
−
→
−
X1 → X ,
X2 → Y ,
Y → Z
Vektorrepräsentation durch x , y , z mit
∠ ( x , y ) = 109◦ , ∠ ( x , z ) = 53◦ , ∠ ( y , z ) = 71◦
.......
..
..
.
z ....
..
..
..
..
..
..
.
.........x ....
y.....
....... ..
....... .. ................................ .
. ...
...............................................................ỹ..........
........x̃
...
...
...........................
.
...
.............................
........
...
... ........... .......................
.
.
.
.
.
.
.
.
.
.
.
...
.
.
.
........
.
.
.
.
..
.
.
..........................
..................
.
.
.
.
.
.
.
........ ...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
......
.. ..
..
............................
.
.......
.
.
.
..
........
...
........
... ...............
...
........
........
...
...............................................
...
........
........
..
........
........
.
........
......
........
.............................
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
..................
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
........
.
.
..................
.
.
.
.
.
.
.
.
.
.
........
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.............................................
x und y werden senkrecht auf Ebene ⊥ z projiziert
−
→
?
→
1.5
Ergebnis : x̃ , ỹ
Winkel zwischen x̃ , ỹ liefert Partialkorrelation
Im Beispiel sollte ∠ ( x̃ , ỹ ) etwa 134◦ sein
Kosinus davon : etwa −.7 – passt !
QM1_16
371
Herunterladen