http://blogs.ethz.ch/ricklis
WAHRSCHEINLICHKEITSTHEORIE
UND STATISTIK
Zusammenfassung zur Vorlesung von
Prof. Dr. A.-S. Sznitman
Zu dieser Zusammenfassung gehören noch zwei Seiten Scans
aus den Übungsstunden zum Thema Statistik. Download unter
http://blogs.ethz.ch/ricklis/studienunterlagen
Die Platzeinteilung ist für eine Abschrift von Hand gemäss den
Prüfungsbedingungen der Klausur im FS15 ± geeignet.
(5 Blätter A4 handbeschrieben)
KOMBINATORIK
Anzahl Möglichkeiten, k Elemente aus einer n-elementigen
Menge zu ziehen:
geordnet
ungeordnet
mit Zurücklegen
๐+๐−1
(
)
๐๐
๐
๐!
๐
ohne Zurücklegen
( )
๐
(๐ − ๐)!
Permutation
Ohne Wiederholungen: ๐!
Mit Wiederholungen:
๐!
๐ค1 !⋅๐ค2 !⋅…
Identitäten des Binomialkoeffizienten
๐
๐−1
๐−1
( )=(
)+(
)
๐
๐−1
๐
๐
๐
(๐) = (๐ − ๐)
๐
๐
๐
∑ ( ) ⋅ ๐ฅ ๐ ⋅ ๐ฆ ๐−๐ = (๐ฅ + ๐ฆ)๐
๐
๐
∑ ( ) = 2๐
๐
๐=0
๐
๐=0
๐, ๐ ≥ ๐
๐=0
๐
๐
∑ ๐ ( ) = ๐ ⋅ 2๐−1
๐
๐=0
๐
๐
๐
๐+๐
∑ (๐ − ๐ ) ⋅ ( ๐ ) = (
)
๐
๐=0
Geometrische Reihe: Summenformeln
๐
∑ ๐๐ =
๐=0
∞
∑ ๐๐ =
๐=0
∞
∑ ๐๐ =
๐=๐
GAUSS’SCHE NORMALVER TEILU NG ๐~๐ฉ(๐, ๐)
Abkürzungen:
k: Anzahl Versuche bis zum ersten Erfolg in einer unendl. Folge
von unabhängigen 0-1-Experimenten mit Erfolgsparam. ๐.
P:
๐[๐ = ๐] = ๐๐ (๐) = ๐(1 − ๐)๐−1, ๐ ≥ 1
Dist: ๐น(๐) = ๐[๐ ≤ ๐] = ๐ ∑๐๐=1(1 − ๐)๐−1 = 1 − (1 − ๐)๐
๐
๐ 1
1
๐
E:
๐ธ[๐] = โฏ = −๐ (∑∞
( )=
๐=0(1 − ๐) ) = −๐
๐: Zentrierungsparameter, ๐: Breiteparameter
1 − ๐๐+1
,
1−๐
๐≠1
1
,
1−๐
|๐| < 1
๐๐
,
1−๐
|๐| < 1
P: W’keiten, Dist: Verteilungsfkt, Dens: Dichte
E: Erwartungswert, V: Varianz
DISKRETE VERTEILUNGE N
Normalisierungsbedingung: ∑๐ฅ∈๐ธ ๐(๐ฅ) = 1
BERNOU LLI -VERTEILUNG ๐~๐๐(๐)
Die Bernoulliverteilung ist die Verteilung eines zufälligen 0-1Experiments mit Erfolgsparameter ๐ ∈ [0,1] und ๐: Ω → {0,1}.
P:
๐[๐ = 1] = ๐, ๐[๐ = 0] = 1 − ๐
0, ๐ < 0
Dist: ๐น(๐) = ๐[๐ ≤ ๐] = {1 − ๐, 0 ≤ ๐ < 1
1, 1 ≤ ๐
E:
๐ธ[๐] = ๐
V:
var[๐] = ๐(1 − ๐)
BINOMIALVERTEILUNG ๐~๐๐๐(๐, ๐)
Die Verteilung der totalen Anzahl von Erfolgen von ๐
unabhängigen 0-1-Experimenten heisst Binomialverteilung der
Länge ๐ mit Erfolgparameter ๐.
๐
P:
๐[๐ = ๐] = ( ) ๐๐ (1 − ๐)๐−๐ , 0 ≤ ๐ ≤ ๐
๐
๐
Dist: ๐น(๐) = ๐[๐ ≤ ๐] = ∑๐๐=0 ( ) ๐๐ (1 − ๐)๐−๐
๐
V:
๐!
๐
( )โ
๐
๐! (๐ − ๐)!
๐
๐
๐+๐
) = ∑( )⋅(
)
๐
๐−๐
๐
GEOMETRISCHE VERTEIL UNG ๐~๐๐๐๐(๐)
E:
Binomialkoeffizient
(
VERTEILUNGEN
๐ธ[๐] = ๐ธ[๐1 + โฏ + ๐๐ ] = ๐ธ[๐1 ] + โฏ + ๐ธ[๐๐ ]
= ๐๐ธ[๐1 ] = ๐๐
var[๐] = var[๐1 + โฏ + ๐๐ ] = โฏ
= ๐ var[๐1 ] = ๐๐(1 − ๐)
Stabilität der Binomialverteilung:
Seien ๐~ bn(๐1 , ๐) und ๐~ bn(๐2 , ๐) unabhängig, dann:
๐ + ๐~ bn(๐1 + ๐2 , ๐)
V:
1
๐2
−
Verteilung der Anzahl Erfolge in einer grossen Anzahl (n)
unabhängigen 0-1-Experimenten, welche alle eine kleine
Erfolgswahrscheinlichkeit haben.
Approximation für Binomialverteilung für
๐ → ∞,
๐ → 0,
๐๐ = ๐ ∈ (0, ∞)
๐
๐
๐ −๐
๐!
1
๐๐
๐๐ ๐
HYPERGEOMETRISCHE VE RTEILUNG
W’keit dafür, dass bei ๐ gegebenen Elementen, von denen ๐
die gewünschte Eigenschaft besitzen, beim Herausgreifen von ๐
Probestücken genau ๐ Treffer erzielt werden, d.h. die W’keit
für ๐ = ๐ Erfolge in ๐ Versuchen.
(๐)(๐−๐)
๐ ๐−๐
(๐
๐)
P:
๐[๐ = ๐] =
Dist:
๐น(๐) = ๐[๐ ≤ ๐] = ∑๐๐=0
E:
๐ธ[๐] = ๐
V:
๐
๐
var(๐) = ๐
๐
๐
(๐)(๐−๐)
๐
๐−๐
(๐
๐)
๐ ๐−๐
(1 − )
๐
๐−1
๐[๐ = ๐] =
Dist:
E:
V:
๐น(๐) = ๐[๐ ≤ ๐] = ๐ −๐ ∑๐๐=0
๐!
๐ธ[๐] = ๐
var(๐) = ๐
, ๐≥0
Dist:
๐น(๐ฅ) =
1
√2๐๐
1
√2๐๐
exp (−
(๐ฅ−๐)2
2๐2
๐ฅ
∫−∞ exp (−
)
(๐ฅ−๐)2
2๐2
) ⋅ ๐๐ฅ
E:
๐ธ[๐] = ๐
V:
var[๐] = ๐ 2
Wendepunkte der Dichte: ๐ฅ = ๐ ± ๐
Maximum:
๐(๐ฅ๐๐๐ฅ = ๐) =
๐~๐ฉ,
var[๐] = ∑ ๐ผ๐2 var[๐๐ ]
๐ธ[๐] = ∑ ๐ผ๐ ๐ธ[๐๐ ] ,
๐
๐
Theorem von de Moivre-Laplace:
๐→∞ ๐
1
๐ฅ2
๐[๐ ≤ ๐ ≤ ๐] ⇒ ∫
exp (− ) ⋅ ๐๐ฅ = Φ(๐) − Φ(๐)
2
๐ √2๐๐
Wobei Φ(๐ฅ) die Verteilungsfunktion einer
Standardnormalverteilung ist. Siehe unten.
STANDARDNORMALVERTEI LU NG ๐~๐ฉ(0,1)
Gauss’sche Normalverteilung mit ๐ = 0, ๐ = 1.
๐(๐ฅ) = ๐(๐ฅ) =
STETIGE VERTEILUNGEN
Dist:
Φ(๐ฅ) = ๐น(๐ฅ) =
GLEICHVERTEILUNG ๐~๐ฐ(๐, ๐)
Eigenschaften von ๐ und Φ:
๐(๐ฅ) = ๐(−๐ฅ),
auf dem Intervall [๐, ๐], ๐ < ๐
1
, ๐ฅ ∈ [๐, ๐]
Dens: ๐(๐ฅ) = {๐−๐
0, ๐ฅ ∉ [๐, ๐]
Dist:
๐ฅ−๐
๐น(๐ฅ) = {๐−๐
0, ๐ฅ < ๐
, ๐≤๐ฅ≤๐
1
√2๐๐
Summe unabhängiger Normalverteilungen:
Seien alle ๐๐ ~๐ฉ(๐๐ , ๐๐ ) unabhängig und ๐ = ∑๐ ๐ผ๐ ๐๐ , dann:
Dens:
1
exp (−
๐ฅ2
)
2
๐ฅ
๐ฅ2
∫−∞ exp (− 2 ) ⋅
√2๐
√2๐
1
๐๐ฅ
Φ(−๐ฅ) = 1 − Φ(๐ฅ)
Gauss’sche Normalverteilung → Standardnormalverteilung:
Eine normalverteilte Zufallsvariable ๐ mit Parametern ๐ und ๐
lässt sich mit Variablentrafo in die Standnormalvert. überführen
๐=
๐−๐
,
๐
⇒
๐~๐ฉ(๐, ๐),
๐ธ[๐] = 0,
๐~๐ฉ(0,1)
var[๐] = 1
1, ๐ฅ > ๐
Lineare Funktion einer Standardnormalverteilung
๐~๐ฉ(0,1), ๐ = ๐ผ๐ + ๐ฝ ⇒ ๐~๐ฉ(๐ผ, ๐ฝ)
๐+๐
E:
๐ธ[๐] =
V:
var[๐] =
2
1
12
(๐ − ๐)2
ZENTRALER GRENZWERTS ATZ
EXPONENTIALVERTEILUN G ๐~๐๐ฅ๐(๐)
P:
๐
๐
Gedächtnislosigkeit: ๐[๐ = ๐0 + ๐|๐ > ๐0 ] = ๐[๐ = ๐]∀๐, ๐0
Normalisierungsbedingung: ∑∞
(๐=0) ๐๐ (๐) = 1
POISSON- VERTEILUNG ๐~๐๐๐๐ (๐)
๐๐
Stabilität: ๐~ pois(๐) , ๐~ pois(๐), dann: ๐ + ๐~ pois(๐ + ๐)
Stetiges Analogon zur geometrischen Verteilung.
−๐๐ฅ
Dens: ๐(๐ฅ) = {๐๐ , ๐ฅ ≥ 0
0,
๐ฅ<0
−๐๐ฅ
Dist: ๐น(๐ฅ) = {1 − ๐ , ๐ฅ ≥ 0
0,
๐ฅ<0
1
E:
๐ธ[๐] =
๐
V:
Zuletzt gespeichert: 04.08.2017 05:54, Version 37
var(๐) =
Dens: ๐(๐ฅ) =
var[๐] =
1
๐2
Seien ๐๐ ‚independent and identically distributed‘ (iid)
Zufallsvariablen und ๐ = ๐1 + โฏ + ๐๐ mit ๐ธ[๐] = ๐ โ ๐ธ[๐๐ ]
und var[๐] = ๐ โ var[๐๐ ], so gilt:
๐→∞
๐ − ๐ธ[๐]
๐[
≤ ๐ง] → ๐ฉ(0,1)
√var[๐]
Die Verteilung der Summe von unendlich vielen gleichen
Verteilungen nähert sich (nach Zentrierung und Skalierung) der
einer Standardardnormalverteilung.
Gedächtnislosigkeit: ๐[๐ ≥ ๐ก + ๐ |๐ ≥ ๐ ] = ๐[๐ ≥ ๐ก]
1/8
Wahrscheinlichkeitstheorie und Statistik
Stefan Rickli
GRUNDLAGEN
GRUND RAUM & E REIGNIS SE
Grundraum: Die nichtleere Menge Ω, welche alle elementaren
Ereignisse enthält, heisst Grundraum. Der Grundraum enthält
alle möglichen Realisationen eines Experiments.
Elementarereignis: ๐ ∈ Ω heisst Elementarereignis und ist eine
Realisation eines Experiments.
Ereignis: ๐ด ⊆ Ω heisst Ereignis und ist eine Menge von
Elementarereignissen.
WAHRSCHEINLICHKEITSR ÄUME
Wahrscheinlichkeit eines Ereignisses:
Jedem Ereignis ๐ด wird die Wahrscheinlichkeit ๐[๐ด] ∈ [0,1]
zugeordnet. Dabei gilt ๐[Ω] = 1.
Ist ๐ด = โ๐๐=1 ๐ด๐ und ๐ด๐ paarweise disjunkt, so gilt:
๐
๐[๐ด] = ∑ ๐[๐ด๐ ]
๐=1
Wahrscheinlichkeitsraum:
Ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, โฑ, ๐), wobei Ω
der Grundraum, โฑ ⊆ ๐ซ(Ω) eine Kollektion von Ereignissen und
๐ eine Abbildung ๐ด ∈ โฑ โฆ ๐[๐ด] ∈ [0,1] ist. Dazu setzen wir
voraus, dass โฑ und ๐ folgendes erfüllen:
โฑ ist eine ๐-Algebra, d.h. es gilt:
๏ง Ω∈โฑ
๏ง ๐ด ∈ โฑ ⇒ ๐ด๐ถ ∈ โฑ
๏ง Für jede Folge ๐ด๐ , ๐ ≥ 1 mit ๐ด๐ ∈ โฑ gilt โ∞
๐=1 ๐ด๐ ∈ โฑ
๐ ist eine Wahrscheinlichkeit, d.h. es gilt:
๏ง ๐[Ω] = 1
๏ง Für ๐ด๐ , ๐ ≥ 1 eine Folge von Ereignissen, welche paarweise
disjunkt sind (๐ด๐ ∩ ๐ด๐ = ∅ ∀๐ ≠ ๐) gilt (๐-Additivität):
∞
๐[โ∞
๐=1 ๐ด๐ ] = ∑๐=1 ๐[๐ด๐ ]
Folgerungen aus der Definition:
๏ง ๐[∅] = 0
๏ง ๐[๐ด๐ถ ] = 1 − ๐[๐ด]
๏ง Wenn eine Folge von Ereignissen paarweise disjunkt ist,
können ihre Wahrscheinlichkeiten addiert werden.
๐ด1, … , ๐ด๐ ∈ โฑ endl. Folge mit ๐ด๐ ∩ ๐ด๐ = ∅ (1 ≤ ๐ ≠ ๐ ≤ ๐),
dann gilt: ๐[โ๐๐=1 ๐ด๐ ] = ∑๐๐=1 ๐[๐ด๐ ]
๏ง ๐ด ⊆ ๐ต โน ๐[๐ด] ≤ ๐[๐ต]
๏ง ๐ด ⊆ ๐ต โน ๐[๐ต โ ๐ด] = ๐[๐ต] − ๐[๐ด]
๏ง Kettenregeln
๐[๐ด ∩ ๐ต] = ๐[๐ด|๐ต] โ ๐[๐ต] = ๐[๐ต|๐ด] โ ๐[๐ด]
๐[๐ด ∩ ๐ต ∩ ๐ถ] = ๐[๐ถ|๐ด ∩ ๐ต] โ ๐[๐ด ∩ ๐ต]
= ๐[๐ถ|๐ด ∩ ๐ต] โ ๐[๐ต|๐ด] โ ๐[๐ด]
๐[๐ด] = ๐[๐ด ∩ ๐ต] + ๐[๐ด ∩ ๐ต ๐ถ ]
http://blogs.ethz.ch/ricklis
Für ๐ด ∈ โฑ und ๐๐ stetig gilt analog:
ZUFALLSVARIABLEN, VE RTEILUNGEN, DICHTE
๐[๐ด] = ∫ ๐[๐ด|๐ = ๐ฆ] ⋅ ๐๐ (๐ฆ) ⋅ ๐๐ฆ
๐ธ๐
ZUFALLSVARIABLE
Formel von Bayes:
๐[๐ต ∩ ๐ด]
๐[๐ต|๐ด] =
๐[๐ด]
LAPLACE - MODELL
Laplace-Modell:
Ist der Grundraum Ω endlich, โฑ = ๐ซ[Ω] und haben alle
Elementarereignisse ๐ ∈ Ω dieselbe Wahrscheinlichkeit
๐(๐) = ๐[{๐}] = 1⁄|Ω|
so heisst der W‘keitsraum (Ω, โฑ, ๐) Laplace-Modell.
Ist ๐ด ⊆ Ω (d.h. ๐ด ∈ โฑ), so gilt:
๐[๐ด] =
|๐ด| # günstige
=
|Ω| # mögliche
Bayes
=
๐[๐ด|๐ต] ⋅ ๐[๐ต]
๐[๐ด]
allgemeiner:
Sei ๐ต1 , … , ๐ต๐ ∈ โฑ eine Zerlegung von Ω mit ๐[๐ต๐ ] > 0 ∀๐ ∈
{1, … , ๐} und ๐ด ∈ โฑ ein Ereignis mit ๐[๐ด] > 0.
๐[๐ต๐ |๐ด] =
๐[๐ด|๐ต๐ ] โ ๐[๐ต๐ ]
๐[๐ด|๐ต๐ ] โ ๐[๐ต๐ ]
= ๐
๐[๐ด]
∑๐=1 ๐[๐ด|๐ต๐ ] โ ๐[๐ต๐ ]
๐[๐ต๐ ] heisst die a priori W’keit der Ursache ๐ต๐ .
๐[๐ต๐ |๐ด] heisst die a posteriori W’keit der Ursache ๐ต๐ (gegeb. ๐ด)
Bsp: Die dreiköpfigen Familien A&B rennen um die Wette
UNABHÄNGIGKEIT
Geg: ๐[๐ธ1 ] = ๐[eine Mutter gewinnt],
๐[๐ธ2 ] = ๐[Familie A gewinnt],
Unabhängigkeit zweier Ereignisse:
๐[๐ธ3 ] = ๐[ein Elternteil von B gewinnt]
Sei (Ω, โฑ, ๐) ein W’keitsraum. Zwei Ereignisse ๐ด, ๐ต ∈ โฑ (mit
]
Ges: ๐[๐ธ4 = ๐[ein Vater oder das Kind von A gewinnt] =?
möglicherweise Null W’keit) heissen genau dann unabhängig,
Ω = {(๐, ๐ด), (๐, ๐ด), (๐พ, ๐ด), (๐, ๐ต), (๐, ๐ต), (๐พ, ๐ต)}
wenn:
๐ธ4 = {(๐, ๐ด), (๐, ๐ต), (๐พ, ๐ด)} = โฏ
๐[๐ด ∩ ๐ต] = ๐[๐ด] โ ๐[๐ต] und [๐ด|๐ต] = ๐[๐ด]
= {(๐, ๐ต), (๐, ๐ต)} โ {(๐, ๐ต)} ∪ {(๐, ๐ด), (๐, ๐ด), (๐พ, ๐ด)} โ {(๐, ๐ด)}
๐[๐ธ4 ] = ๐[๐ธ3 โ {(๐, ๐ต)}] + ๐[๐ธ2 โ {(๐, ๐ด)}] = โฏ
Die zusätzliche Information von B ändert bei Unabhängigkeit
= ๐[๐ธ3 ] − ๐[{(๐, ๐ต)}] + ๐[๐ธ2 ] − ๐[{(๐, ๐ด)}]
also nichts an der Eintretenswahrscheinlichkeit von A.
= ๐[๐ธ3 ] + ๐[๐ธ2 ] − (๐[{(๐, ๐ด)}] + ๐[{(๐, ๐ต)}])
]
]
(๐,
= ๐[๐ธ3 + ๐[๐ธ2 − ๐[{(๐, ๐ด),
๐ต)}]
|๐ด|⋅|๐ต|
Im Laplace-Modell: ๐ด, ๐ต ⊆ Ω unabhängig ⇔ |A ∩ B| = |Ω|
= ๐[๐ธ3 ] + ๐[๐ธ2 ] − ๐[๐ธ1]
๐ถ
BEDINGTE WAHRSCHEINL ICHKEIT
Ist 0 < ๐[๐ด] < 1, so sind ๐ด und ๐ด nie unabhängig.
Bedingte Wahrscheinlichkeit:
Sei (Ω, โฑ, ๐) ein W’keitsraum und ๐ด, ๐ต ∈ โฑ Ereignisse mit
๐[๐ต] > 0, dann heisst:
Unabhängigkeit einer Kollektion von Ereignissen:
Sei ๐ด1 , … , ๐ด๐ eine Kollektion von Ereignissen (d.h. ๐ด๐ ∈ โฑ ∀๐)
Die Kollektion heisst unabh., falls
∀1 ≤ ๐1 < ๐2 < โฏ < ๐๐ ≤ ๐ mit 2 ≤ ๐ ≤ ๐ gilt:
๐[๐ด๐1 ∩ … ∩ ๐ด๐๐ ] = ๐[๐ด๐1 ] โ … โ ๐[๐ด๐๐ ]
๐[๐ต|๐ด] =
๐[๐ต ∩ ๐ด]
๐[๐ด]
die bedingte Wahrscheinlichkeit von ๐ต gegeben ๐ด.
Im Laplace-Modell: ๐[๐ต|๐ด] =
günstige
mögliche
=
|๐ต∩๐ด|
|๐ด|
„Wenn wir wissen, dass A eintritt, so sind die möglichen Fälle
natürlich nur noch jene, bei denen A eintritt.“
Unabhängigkeit zweier Zufallsvariablen:
Sei (Ω, โฑ, ๐) ein W’keitsraum. Seien ๐, ๐ zwei Zufallsvar. auf Ω.
๐ und ๐ heissen unabhängig, wenn ∀๐, ๐ ∈ โ gilt:
๐[{๐ ≤ ๐} ∩ {๐ ≤ ๐ต}] = ๐[๐ ≤ ๐] โ ๐[๐ ≤ ๐]
Zufallsvariable:
Sei (Ω, โฑ, ๐) ein W’keitsraum. Eine reelle Zufallsvariable X ist
eine Abb. ๐: Ω → โ, so dass für ein ๐ฅ ∈ โ gilt:
{๐ ∈ Ω|๐(๐) ≤ ๐ฅ} ∈ โฑ
∈ โฑ heisst: „muss ein beobachtbares Ereignis sein“
Notation: Man schreibt {๐ ≤ ๐ฅ} für {๐ ∈ Ω|๐(๐) ≤ ๐ฅ}.
„{๐ ≤ ๐ฅ} ist die Menge aller Elementarereignisse ω, deren
Abbildung / Bewertung durch ๐(๐) auf eine reelle Zahl
unterhalb einer gewissen Schwelle a liegen.“
Wenn X z.B. die Augenanzahl beim Würfeln wiedergibt, dann
ist ๐[๐ ≤ ๐ฅ] = ๐[{๐ ∈ Ω|๐(๐) ≤ ๐ฅ}] die W’keit, dass der
Würfel kleiner gleich a zeigt.
Diskrete Zufallsvariable:
Eine Zufallsvariable X heisst diskret, wenn die Menge
๐ธ = {๐ฅ ∈ โ: {๐ = ๐ฅ} ≠ ∅} höchstens abzählbar unendlich ist.
„VERTEILUNG“ -BEGRIFFE
Verteilungsfunktion
Diskret
๐[๐ = ๐ฅ] = ๐๐ (๐ฅ)
= ๐๐ฅ
„Gewichtsfkt. /
W’keitsfkt.“
๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ]
2D-Verteilung
Siehe Tabellenbeispiel
Verteilung
๐
๐
๐ [โ ๐ด๐ ] = ∑(−1)๐−1
๐=1
๐=1
∑
๐[๐ด๐1 ∩ … ∩ ๐ด๐๐ ]
1≤๐1 <โฏ<๐๐ ≤๐
Bsp mit 3 Ereignissen A,B und C:
๐[๐ด ∪ ๐ต ∪ ๐ถ] = ๐[๐ด] + ๐[๐ต] + ๐[๐ถ]
−๐[๐ด ∩ ๐ต] − ๐[๐ต ∩ ๐ถ] − ๐[๐ถ ∩ ๐ด]
+๐[๐ด ∩ ๐ต ∩ ๐ถ]
๏ง De-Morgan
๐ถ
๐ด ∩ ๐ต = (๐ด ∪ ๐ต ๐ถ )๐ถ ,
๐ด ∪ ๐ต = (๐ด๐ถ ∩ ๐ต ๐ถ )๐ถ
Folgerungen aus der Definition:
๏ง ๐[๐ด๐ถ |๐ต] = 1 − ๐[๐ด|๐ต]
๏ง ๐ด๐ ‘s paarweise disjunkt:
๐[(โ๐ ๐ด๐ )|๐ต] =
∑๐ ๐[๐ด๐ |๐ต]
๏ง ๐ด๐ ‘s unabhängig:
๐[(โ๐ ๐ด๐ )|๐ต] = ∏๐ ๐[๐ด๐ |๐ต]
Formel der totalen Wahrscheinlichkeit:
Sei ๐ต1 , … , ๐ต๐ ∈ โฑ eine Zerlegung von Ω, d.h. Ω = ๐ต1 ∪ … ∪ ๐ต๐
mit ๐[๐ต๐ ] > 0 ∀๐ ∈ {1, … , ๐}. Dann gilt für ein Ereignis ๐ด ∈ โฑ:
๐
๐[๐ด] = ∑ ๐[๐ด|๐ต๐ ] ⋅ ๐[๐ต๐ ]
„Dichte am Ort
k“
๐[๐ ≤ ๐ฅ]
๐[๐ ≤ ๐ฅ ∩ ๐
≤ ๐ฆ]
VERTEILUNG EINE R ZUF AL LSVARIABLEN
Verteilungsfunktion:
Sei ๐ eine Zufallsvariable auf (Ω, โฑ, ๐). Die Verteilungsfunktion
von ๐ ist die Funktion ๐น๐ (๐ฅ): โ → [0,1] definiert durch:
๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ],
๐∈โ
Eigenschaften von Verteilungsfunktionen:
Für die Verteilungsfunktion ๐น๐ der Zufallsvariablen ๐ gilt:
๏ง ๐น๐ ist monoton wachsend auf โ mit Werten in [0,1]
๏ง lim ๐น๐ (๐) = 0 und lim ๐น๐ (๐) = 1
๐→−∞
Inklusion/Exklusion
Stetig
๐→+∞
Regeln:
๐[๐ ≤ ๐ฅ] = ๐น๐ (๐ฅ) = lim+ ๐น๐ (๐ฅ + โ)
โ→0
๐[๐ < ๐ฅ] = ๐น๐ (๐ฅ − ) = lim+ ๐น๐ (๐ฅ − โ)
โ→0
๐[๐ = ๐ฅ] = ๐น๐ (๐ฅ) − ๐น๐ (๐ฅ − )
๐[๐ > ๐ฅ] = 1 − ๐น๐ (๐ฅ)
๐[๐ ≥ ๐ฅ] = 1 − ๐น๐ (๐ฅ − )
๐[๐ ≤ ๐ ≤ ๐] = ๐[๐ ∈ [๐, ๐]] = ๐น๐ (๐) − ๐น๐ (๐− )
๐[๐ < ๐ ≤ ๐] = ๐น๐ (๐) − ๐น๐ (๐)
๐[๐ ≤ ๐ < ๐] = ๐น๐ (๐− ) − ๐น๐ (๐− )
๐[๐ < ๐ < ๐] = ๐น๐ (๐− ) − ๐น๐ (๐)
๐=1
Zuletzt gespeichert: 04.08.2017 05:54, Version 37
2/8
Wahrscheinlichkeitstheorie und Statistik
Stefan Rickli
Stetige Verteilung:
Eine stetige Verteilung ist dadurch charakterisiert, dass die
Verteilungsfunktion ๐น๐ (๐ฅ): โ → [0,1] überall stetig ist.
Es gilt dabei ๐[๐ = ๐ฅ] = 0 (Die Eintretensw’keit eines exakten
Werts ist gleich Null).
Existiert eine nicht-negative Funktion ๐๐ (๐ฅ) auf โ, so dass:
๐ฅ
๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ] = ∫ ๐๐ (๐ฅ ′ ) ⋅ ๐๐ฅ ′ ,
ERWARTUNGSWERT
Sei ๐: โ → โ eine Zufallsvariable (ZV) auf (Ω, โฑ, ๐). Es sei ๐ =
๐(๐). Ist ๐ genügend schön, so ist auch ๐ eine ZV.
Ist ๐ streng monoton steigend und stetig, so existiert ๐−1 und
wir erhalten die Verteilungsfunktion von ๐:
stetige Zufallsvariablen:
๐∈โ
๐น๐ (๐ฆ) = ๐[๐ ≤ ๐ฆ] = ๐[๐(๐) ≤ ๐ฆ]
= ๐[๐ ≤ ๐−1(๐ฆ)] = ๐น๐ (๐−1(๐ฆ))
Also z.B. für ๐ = ๐๐ gilt:
๐
๐๐ (๐ฅ) =
๐น (๐ฅ)
๐๐ฅ ๐
(∗)
Die Dichtefunktion ist durch die Ableitung der
Verteilungsfunktion gegeben. (Nützlich für Berechnungen)
∞
∫−∞ ๐๐ (๐ฅ ′ )
⋅ ๐๐ฅ ′ = 1
๐น๐ (๐ฆ) = ๐[๐ ≤ ๐ฆ] = ๐[๐๐ ≤ ๐ฆ] = ๐[๐ ≤ ๐ฆ 1⁄๐ ]
(*) Grenzen anpassen!
Die Dichte(-funktion) lässt sich auf zwei Arten bestimmen:
๐
1)
๐๐ (๐ฆ) = ๐น๐ (๐ฆ)
๐๐ (๐ฆ) = ๐๐ (๐
2)
Besitzt ๐ eine Dichtefunktion ๐๐ (⇔ ๐น๐ stetig und stückw.
diff’bar), so gilt:
−1 (๐ฆ))
โ
๐
Habe X die Dichte ๐๐ (๐ฅ) = {(1+๐ฅ)4
0,
๐
1
๐ฅ≤0
Diskrete Verteilung:
Die Verteilungsfunktion einer diskreten Zufallsvariablen ๐ lässt
sich mittels der W’keitsfunktion ๐[๐ = ๐ฅ๐ ] = ๐๐ (๐ฅ๐ ) ∀๐
bestimmen:
๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ] = ∑ ๐[๐ = ๐ฅ๐ ] = ∑ ๐๐ (๐ฅ๐ ) = ∑ ๐๐ฅ๐
Was ist die Dichte von ๐ −2 ?
1)
Wert von c bestimmen: Normalisierungsbedingung
⇒ ๐=3
2)
Berechne Verteilungsfunktion von X
๐ฅ
1
๐น๐ (๐ฅ) = ∫ ๐(๐ฅ ′ ) ⋅ ๐๐ฅ ′ = (1 −
) ⋅ ๐{๐ฅ>0}
(1 + ๐ฅ)3
∞
3)
Berechne Verteilungsfunktion der Funktion von X,
1
hier also ๐ −2
๐ฅ๐ ≤๐ฅ
wobei die ๐ฅ๐ die möglichen diskreten Elementarereignisse sind.
๐น
๐
1
−
1
2
(∗)
(๐ฅ) = ๐ [๐ −2 ≤ ๐ฅ] = 1 − ๐ [๐ ≤
Dabei gelten folgende Eigenschaften:
๏ง ∑∞
๐=1 ๐[๐ = ๐ฅ๐ ] = 1 (Normierung)
๏ง Für ๐, ๐ ∈ โ, ๐ ≤ ๐ gilt: ๐[{๐ < ๐ ≤ ๐}] = ๐น๐ (๐) − ๐น๐ (๐)
= 1 − ๐น๐ (
4)
Mischformen:
Stetige und Diskrete Verteilungen sind nicht komplementär. Es
gibt auch Verteilungen, die Elemente beider Typen enthalten
und damit stückweise stetig sind.
(∗) ๐ [
1
)=
๐ฅ2
1
(1 +
1
−2
Dichte von ๐ ist
๐
๐
๐น 1 (๐ฅ) =
๐๐ฅ ๐ −2
๐๐ฅ
1
3
(1 +
1
)
๐ฅ2
=
1 3
)
๐ฅ2
1
]
๐ฅ2
⋅ ๐{๐ฅ>0}
6
4
๐ฅ 3 (1 +
1
)
๐ฅ2
⋅ ๐{๐ฅ>0}
1
1
1
≤ ๐] = ๐ [ ≤ ๐2 ] = ๐ [๐ ≥ 2 ] = 1 − ๐ [๐ ≤ 2 ]
๐
๐
๐
√๐ฅ
falls
1
1
1
1 1
๐ธ[๐] = ๐ธ [ ] = ∑ ๐[๐ = ๐] = (1 + + โฏ + ) ⋅
๐
๐
2
6 6
๐=1
Für zwei unabhängige Zufallsvariablen ๐ und ๐ und zwei
Funktionen ๐(๐) ung ๐(๐) gilt:
โ ๐๐ (๐ฅ)๐๐ฅ < ∞
๐ธ[๐(๐) โ ๐(๐)] = ๐ธ[๐(๐)] โ ๐ธ[๐(๐)]
diskrete Zufallsvariablen:
๐ = ๐ธ[๐] = ∑ ๐ฅ๐ ๐[๐ = ๐ฅ๐ ] = ∑ ๐ฅ๐๐ (๐ฅ)
๐
๐ฅ∈๐ธ๐
Achtung! Im Allgemeinen gilt
๐ธ[๐(๐)] ≠ ๐(๐ธ[๐])
„summiere über alle möglichen Werte, die X annehmen kann
und gewichte mit deren Auftretenswahrscheinlichkeiten“
VARIANZ, STANDARDABWEICHUNG
Satz des totalen Erwartungswerts:
Sei Ω = ๐ด1 ∪ ๐ด2 ∪ … ∪ ๐ด๐ mit ๐ด๐ ∩ ๐ด๐ = ∅∀๐ ≠ ๐ eine
Zerlegung des Grundraumes, sowie ๐ eine Zufallsvar. Dann:
๐
๐ธ[๐] = ∑ ๐[๐ด๐ ] โ ๐ธ[๐|๐ด๐ ]
๐=1
Linearität des Erwartungswerts:
Sei ๐ = ๐ โ ๐ + ๐ ⋅ ๐, so gilt:
๐ธ[๐] = ๐ธ[๐ โ ๐ + ๐ ⋅ ๐] = ๐ โ ๐ธ[๐] + ๐ ⋅ ๐ธ[๐]
ERWARTUNGSWERT EINER FUNKTION EINER
Z.V.
Sofern ๐๐ quadratisch integrierbar ist, definiert man die
Varianz ๐ 2 = var[๐] und Standardabweichung ๐ = √var[๐]:
stetige Zufallsvariablen:
∞
๐ 2 = var[๐] = ∫−∞(๐ฅ − ๐)2๐๐ (๐ฅ) ⋅ ๐๐ฅ
= ๐ธ[(๐ − ๐ธ[๐])2] = ๐ธ[๐2 ] − ๐ธ[๐]2
diskrete Zufallsvariablen:
๐ 2 = var[๐] = ∑๐ (๐ฅ๐ − ๐)2 ๐[๐ = ๐ฅ๐ ]
= ๐ธ[(๐ − ๐ธ[๐])2] = ๐ธ[๐2 ] − ๐ธ[๐]2
EIGENSCHAFTEN VARIANZ
Symmetrie der Varianz:
var[๐] = var[−๐]
Linearkombination von Z.V.
var(๐ + ๐) = var(๐) + var(๐) + 2 cov(๐, ๐)
Sei ๐ eine ZV und ๐ = ๐(๐). Der Erwartungswert ๐ธ[๐] ist
๏ง wenn ๐ eine stetige ZV:
∞
๐ธ[๐] = ๐ธ[๐(๐)] = ∫ ๐(๐ฅ) โ ๐๐ (๐ฅ) ⋅ ๐๐ฅ
−∞
1
BSP MIN/MAX
1
๐
−∞
๐ฅ>0
1
= ๐[๐ < ๐ ≤ ๐] = ๐[๐ ≤ ๐ < ๐]
Zuletzt gespeichert: 04.08.2017 05:54, Version 37
๐ = ๐ธ[๐] = ∫ ๐ฅ โ ๐๐ (๐ฅ) ⋅ ๐๐ฅ
∞
∫−∞|๐ฅ|
Seien die Zufallsvariablen ๐ und ๐ unabhängig, so gilt:
๐ธ[๐ โ ๐] = ๐ธ[๐] โ ๐ธ[๐]
,
๐โ
6
⇒
∞
EIGENSCHAFTEN ERWARTUNGSWERT
|๐ ′ (๐−1 (๐ฆ))|
BSP DICHTE BESTIMMEN
๐
∫ ๐๐ (๐ฅ)๐๐ฅ = ๐[๐ < ๐ < ๐] = ๐[๐ ≤ ๐ ≤ ๐]
๐ฅ๐ ≤๐ฅ
๐ ∈ {1,2,3,4,5,6},
๐๐ฆ
Normierung.
๐ฅ๐ ≤๐ฅ
Bsp: X=Augenzahl beim Wurf eines Würfels
TRANSFORMATION EINER STETIGEN ZV
−∞
so heisst ๐๐ die Dichtefunkt. von ๐. Es muss gelten:
http://blogs.ethz.ch/ricklis
๏ง wenn ๐ eine diskrete ZV:
๐ธ[๐] = ๐ธ[๐(๐)] = ∑ ๐(๐ฅ๐ ) โ ๐[๐ = ๐ฅ๐ ]
๐
Geg.: ๐1 , ๐2 ZV, unabh. ๐ = min(๐1 , ๐2 ) , ๐ = max(๐1 , ๐2 )
Ges.: Verteilungsfunktion
Für den stetigen wie auch diskreten Erwartungswert muss
absolute Konvergenz des Integrals / der Summe gelten.
Vorgehen:
1)
Definiere ๐ฆ ∈ โ > 0 und ๐ง ∈ โ > 0
๐[๐ > ๐ฆ] = ๐[min(๐1 , ๐2 ) > ๐ฆ]
2)
= ๐[๐1 > ๐ฆ ∩ ๐2 > ๐ฆ] = โฏ
๐[๐ > ๐ง] = ๐[max(๐1 , ๐2 ) ≤ ๐ง]
3)
= ๐[๐1 ≤ ๐ง ∩ ๐2 ≤ ๐ง] = โฏ
„summiere alle mögl. Werte von X auf und gewichte den Wert
von g mit der Auftretenswahrscheinlichkeit von X an jenen
Stellen“
3/8
Wahrscheinlichkeitstheorie und Statistik
Stefan Rickli
http://blogs.ethz.ch/ricklis
ZWEIDIMENSIONALE VER TEILUNGEN
Def: Verteilung von zwei Zufallsvariablen ๐ und ๐
๐น๐,๐ (๐ฅ, ๐ฆ) = ๐[๐ ≤ ๐ฅ, ๐ ≤ ๐ฆ]
Dabei gelten folgende Eigenschaften:
๏ง lim ๐น๐,๐ (๐ฅ, ๐ฆ) = lim ๐น๐,๐ (๐ฅ, ๐ฆ) = 0
๐ฅ→−∞
๏ง
BSP GEMEINSAME VERTE ILU NG (SERIE 6 )
UNABHÄNGIGKEIT
BESTE LINEARE PROGNO SE
Geg: ๐~ bin(๐1 , ๐) , ๐~ bin(๐2 , ๐) , ๐, ๐ unabh.
Also z.B. „gestern ๐1 -mal durchgeführt, heute ๐2 -mal“
Seien ๐, ๐ zwei unabh. ZV und ๐, โ zwei Funktionen, dann gilt:
๐๐,๐ (๐ฅ, ๐ฆ) = ๐๐ (๐ฅ) โ ๐๐ (๐ฆ)
๐น๐,๐ (๐ฅ, ๐ฆ) = ๐น๐ (๐ฅ) โ ๐น๐ (๐ฆ)
๐๐,๐ (๐ฅ, ๐ฆ) = ๐๐ (๐ฅ) โ ๐๐ (๐ฆ)
๐ธ[๐(๐) โ โ(๐)] = ๐ธ[๐(๐)] โ ๐ธ[โ(๐)]
Die beste lineare Prognose von ๐ durch ๐ im Sinn der
Minimierung des erwarteten Fehlers ๐ธ[(๐ − ๐)2 ] unter allen
linearen Transformationen ๐ผ๐ + ๐ฝ ist:
cov[๐, ๐]
(๐ − ๐ธ[๐]) + ๐ธ[๐]
๐≈๐=
var[๐]
Abhängigkeit zeigen: konkreten Wert für x und y finden, bei
dem Ungleichheit bei einer der obigen Formeln gezeigt werden
kann.
Anmerkung: dies kommt aus der gewünschten Trafo und der
Definition des minimalen Prognosefehlers. Es ginge z.B. auch
als gewünschte Transformation ๐ฬ โ ๐๐. Dann ist der minimale
2
Prognosefehler ๐ธ [(๐ − ๐ฬ ) ] = ๐ธ[(๐ − ๐๐)2 ].
๐ฆ→−∞
lim
๐ฅ→∞, ๐ฆ→∞
๐น๐,๐ (๐ฅ, ๐ฆ) = 1
Ges: Verteilung von ๐ = ๐ + ๐, also ๐[๐ = ๐] =?
๐1
๐[๐ + ๐ = ๐] = ∑ ๐[๐ + ๐ = ๐|๐ = ๐]๐[๐ = ๐]
STETIGE ZWEIDIMENSIO NALE V ERTEILUNG
Gemeinsame Dichte:
๐, ๐ Z.V.: Ω → โ auf (Ω, โฑ, ๐) besitzen eine gemeinsame
stetige Verteilung, falls ๐๐,๐ (๐ฅ, ๐ฆ) ≥ 0 auf โ2 existiert, wobei
∞ ∞
∫−∞ ∫−∞ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ = 1 (Normierungsbedingung).
Falls dann gilt
๐[๐ ∈ [๐1, ๐1 ] ∩ ๐ ∈ [๐2 , ๐2 ]] = ๐[๐1 ≤ ๐ ≤ ๐1 ∩ ๐2 ≤ ๐ ≤ ๐2 ]
∞
∞
(∗)
= ∑ ๐[๐ + ๐ = ๐]๐[๐ = ๐]
๐=0
๐1
= ∑ ๐[๐ = ๐ − ๐]๐[๐ = ๐]
= ∫ ∫ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ
๐2
๐1
wobei −∞ ≤ ๐1 ≤ ๐1 ≤ ∞ und −∞ ≤ ๐2 ≤ ๐2 ≤ ∞,
๐=0
๐1
๐ฆ
๐2
๐
) ๐๐−๐ (1 − ๐)๐2 −๐+๐ ⋅ ( 1 ) ๐๐ (1 − ๐)๐1 −๐
๐−๐
๐
๐=0
๐2
๐
) ( 1 )) ⋅ ๐๐ (1 − ๐)(๐1 +๐2)−๐
๐−๐ ๐
⇒
Minimaler Vorhersagefehler:
Für ๐ = ๐ผ๐ + ๐ฝ gilt (?):
๐ธ[(๐ − ๐)2 ] = var[๐] (1 − cor 2 [๐, ๐])
∞
−∞ −∞
diskrete 2D-Verteilung:
๐[๐ + ๐ = ๐ ∩ ๐ = ๐]
๐[๐ = ๐]
๐[๐ + ๐ = ๐ ∩ ๐ = ๐]
=
๐[๐ = ๐]
๐[๐ + ๐ = ๐] ⋅ ๐[๐ = ๐]
=
๐[๐ = ๐]
= ๐[๐ + ๐ = ๐]
๐[๐ + ๐ = ๐|๐ = ๐] =
(∗)
Randdichten der gemeinsamen Dichte:
∞
๐๐ (๐ฅ) = ∫−∞ ๐๐,๐ (๐ฅ, ๐ฆ)๐๐ฆ
∞
๐๐ (๐ฆ) = ∫−∞ ๐๐,๐ (๐ฅ, ๐ฆ)๐๐ฅ
{
DISKRETE ZWEIDIMENSI ONALE VERTEILUNG
W’keitsfunktion: (normiert!)
๐๐,๐ (๐ฅ, ๐ฆ) = {
Bsp Umgang mit einer Funktion einer 2D-Verteilung:
∞
−∞
∞
๐ = ๐ + ๐~ bin(๐1 + ๐2 , ๐)
−∞ −∞
∞
∞
๐ธ[๐] = ๐ธ[๐(๐, ๐)] = ∫ ∫ ๐(๐ฅ, ๐ฆ) ⋅ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ
๐ฅ
๐[๐ 2 + ๐ ๐ ≤ ๐] = ∫ ∫ ๐{๐ฅ 2 +๐๐ฆ ≤๐} ⋅ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ = โฏ
∞
๐ธ[๐๐ + ๐๐] = ๐ ∫ ๐๐ (๐ฅ) ⋅ ๐๐ฅ + ๐ ∫ ๐๐ (๐ฆ) ⋅ ๐๐ฆ
Funktionen von Z.V. mit gemeinsamer D ichte:
Sei ๐ = ๐(๐, ๐) eine ZV, so gilt für deren Erwartungswert:
stetige 2D-Verteilung:
๐ + ๐2 ๐
=( 1
) ๐ (1 − ๐)(๐1 +๐2)−๐
๐
๐น๐,๐ (๐ฅ, ๐ฆ) = ∫ ∫ ๐๐,๐ (๐ฅ ′ , ๐ฆ ′ ) ⋅ ๐๐ฅ ′ ๐๐ฆ ′
Randverteilungen:
๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ] = ๐[๐ ≤ ๐ฅ ∩ −∞ ≤ ๐ ≤ ∞]
๐ฅ
∞
= ∫−∞ ∫−∞ ๐(๐ฅ′, ๐ฆ) ⋅ ๐๐ฆ ๐๐ฅ ′
Linearität des Erwartungswerts:
−∞
= (∑ (
dann heisst ๐๐,๐ (๐ฅ, ๐ฆ) gemeinsame Dichte von ๐ und ๐.
Verteilungsfunktion:
๐(๐) โ (๐ − ๐๐)2 ist eine Parabel ⇒ ableiten und gleich Null
setzen, um das Minimum zu finden.
2D-ERWARTUNGSWERT
๐=0
๐1
= ∑(
= ∫ ∫ ๐{๐1 ≤๐ฅ≤๐1 } ⋅ ๐{๐2 ≤๐≤๐2 } ⋅ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ
−∞ −∞
๐2 ๐1
๐=0
๐1
๐,๐
(Summiere über alle möglichen Werte für X und Y)
KOVARIANZ
Die Kovarianz beschreibt den Grad der Abhängigkeit zw. 2 ZV.
cov(๐, ๐) โ ๐ธ[(๐ − ๐ธ[๐])(๐ − ๐ธ[๐])]
= ๐๐,๐ = ๐ธ[๐ โ ๐] − ๐ธ[๐] โ ๐ธ[๐]
Eigenschaften der Kovarianz:
๏ง ๐, ๐ unabhängig โน cov(๐, ๐) = 0
๏ง cov(๐, ๐) = 0 โน ๐, ๐ unkorreliert (nicht zwingend unabh.)
๏ง cov(๐, ๐) = var(๐)
๏ง cov(๐๐ + ๐, c๐ + ๐) = ๐๐ cov(๐, ๐)
๏ง cov(๐ + ๐, ๐) = cov(๐, ๐) + cov(๐, ๐)
๐๐ฅ,๐ฆ , ๐ = ๐ฅ, ๐ = ๐ฆ
0,
๐ ๐๐๐ ๐ก
Verteilungsfunktion:
๐น๐,๐ (๐ฅ, ๐ฆ) = ∑ ∑ ๐๐,๐ (๐ฅ, ๐ฆ)
−∞ −∞
๐ธ[๐] = ๐ธ[๐(๐, ๐)] = ∑ ๐(๐ฅ๐ , ๐ฆ๐ ) ⋅ ๐๐,๐ (๐ฅ๐ , ๐ฆ๐ )
๐ฅ≤๐ ๐ฆ≤๐
W’keitsfunktionen der einzelnen ZV:
๐๐ (๐ฅ) = ∑ ๐๐,๐ (๐ฅ, ๐ฆ) ,
๐๐ (๐ฆ) = ∑ ๐๐,๐ (๐ฅ, ๐ฆ)
๐ฆ
๐ฅ
KORRELATIONSFAKTOR
Randverteilungen:
๐น๐ (๐ฅ) = ∑ ๐๐ (๐ฅ) = ∑ ∑ ๐๐,๐ (๐ฅ, ๐ฆ)
๐ฅ≤๐
๐ฅ≤๐ ๐ฆ
cor(๐, ๐) = ๐(๐, ๐) =
๐๐,๐
cov(๐, ๐)
=
∈ [−1,1]
๐๐ โ ๐๐ √var(๐) โ var(๐)
Bsp. 2D-Verteilung mit den W’keitsfkt. und Randverteilungen:
Y\X
0
1
2
1⁄
1⁄
1⁄
๐๐ (0) = 25⁄36
0
4
3
9
1
2
1⁄
9
1⁄
12
๐๐ (0) = 4⁄9
1⁄
9
0
0
0
๐๐ (1) = 8⁄36
๐๐ (2) = 3⁄36
๐๐ (1) = 4⁄9 ๐๐ (2) = 1⁄9 ∑ ๐๐,๐ (๐ฅ, ๐ฆ) = 1
๐ฅ,๐ฆ
๐๐,๐ (0,2) = 1⁄12
Zuletzt gespeichert: 04.08.2017 05:54, Version 37
4/8
Wahrscheinlichkeitstheorie und Statistik
Stefan Rickli
http://blogs.ethz.ch/ricklis
STATISTIK
BEISPIEL FÜR CHI -QUADRAT -TEST
๐ 2 ANPASSUNGSTEST
Geg: n unabhängige Beobachtungen ๐ฅ1 , … , ๐ฅ๐
Z.B. während n Tagen Anzahl Autos über Brücke gezählt
Frage: stammen die ๐ฅ1, … , ๐ฅ๐ von einer bestimmten
Zufallsvariable X?
Z.B. ๐~pois(4)
Beobachtungen fallen in m Klassen.
Z.B. 0 ≤ ๐ ≤ 10, 11 ≤ ๐ ≤ 20, ๐ > 20
Wir betrachten Geburtstage ๐ฅ1 , … , ๐ฅ2736 von NHL-Spielern.
Quartal
1
2
3
4
Anzahl
๐1
๐2
๐3
๐4
= 985
= 820
= 535
= 396
1
๐ ≈ ๐3 ~๐32.
4
Definiere Grössen:
๐๐ : Wahrscheinlichkeit dafür, dass Klasse ๐ eintritt:
๐1 = ๐[0 ≤ ๐ ≤ 10]
๐2 = ๐[11 ≤ ๐ ≤ 20]
๐3 = ๐[๐ > 20]
4
๐ก=∑
(๐๐ − ๐๐๐ )2
๐=1
(๐๐ −๐๐๐ )2
๐๐๐
, ungefähr ๐ 2-verteilt
mit (๐ − 1) Freiheitsgraden.
2
Das heisst ๐[๐ ≤ ๐] ≈ ๐[๐๐−1 ≤ ๐] für ๐๐−1~๐๐−1
๐๐ : Anzahl der ๐ฅ1 , … , ๐ฅ๐ , welche in die Klasse ๐ fallen
(≈ ๐ ⋅ ๐๐ , aber real gemessen)
Wähle nun ein ๐ ∈ โ mit ๐[๐๐−1 ≤ ๐] = 99% respektive
๐[๐๐−1 > ๐] = 0.01.
Berechne ๐ก โ
(๐๐ −๐๐๐ )
∑๐
๐=1
๐๐
๐
Falls nun ๐ก > ๐ ⇒ ๐ฅ1 , … , ๐ฅ๐ stammen mit hoher
Wahrscheinlichkeit nicht von X
๐ก ≤ ๐ ⇒ ๐ฅ1 , … , ๐ฅ๐ könnten von X stammen
๐๐๐
=
(985 − 684)2
684
(820 − 684)2
a
Gerettete
70
30
100
160
70
230
Allgemeines Raster:
684
Die Hypothese, dass die Geburtstage gleichmässig verteilt sind,
muss verworfen werden.
๐1
๐พ1
๐พ2
…
๐พ๐
๐11
๐12
…
๐1๐
๐1๐ = ∑๐๐=1 ๐1๐
โฎ
โฎ
โฎ
โฑ
โฎ
โฎ
๐๐
๐๐1
๐๐2
…
๐๐๐
๐๐๐ = ∑๐๐=1 ๐๐๐
๐๐1 = ∑๐
๐=1 ๐๐1 …
๐๐๐ = ∑๐
๐=1 ๐๐๐
๐ = ∑๐,๐ ๐๐๐
BEISPIEL FÜR CHI -QUADRAT -TEST
Geg:
Dorf mit ๐ = 1000 Einwohner
Wir verteilen Äpfel an einem Stand an einem Tag.
Im Schnitt kommen 100 Personen pro Tag am Stand
vorbei.
⇒ Wir modellieren die Anzahl Besucher ๐๐ ~Bin (๐, ๐ =
1
10
)
Gesucht: k minimal mit 0.95 ≤ ๐[๐๐ ≤ ๐]
๐๐ − ๐๐
๐ − ๐๐
๐๐ − ๐๐
= ๐[
≤
]
~๐(0,1)
√๐๐(1 − ๐) √๐๐(1 − ๐)
√๐๐(1 − ๐)
๐ − ๐๐
๐ − 100
3.1.11
≈ Φ(
) = Φ(
)
√90
√๐๐(1 − ๐)
0.95 ⇒ 1.65 ≤
t
+
(535 − 684)2 (396 − 684)2
+
+
684
684
= 313.2 โซ 7.815 = ๐
k ist dann minimal mit 0.95 ≤ Φ (
1%
Opfer
90
40
130
Männer
Frauen
Frage: Wie viele Äpfel sollen bestellt werden, damit mit 95%
Wahrscheinlichkeit alle Besucher einen Apfel kriegen?
2
๐ป0
Wähle a mit ๐[๐3 > ๐] = 5%. Tabelle: ๐ = 7.815
๐๐ : Anzahl Beobachtungen von n Versuchen,
welche in Klasse i fallen
(dies ist eine Z.V.!)
๐ธ[๐๐ ] = ๐ ⋅ ๐๐
⇒ ๐ โ ∑๐
๐=1
Frage: sind zwei Merkmale โ
K&M unabhängig ?
Bsp: Spielt das Geschlecht beim Überleben eines
Schiffsunglücks eine Rolle?
Frage: sind die Geburtstage gleichmässig auf die Quartale
verteilt? Betrachte das 5%-Niveau.
๐ = 4 Klassen, ๐๐ = , ๐ = 1,2,3,4
๐ 2 -UNABHÄNGIGKEITSTEST ZUM NIVEAU ๐ผ
(=5%)
๐−100
√90
๐−100
√90
๐๐,⋅ ๐⋅,๐
∗
Sei ๐๐๐
โ
der Erwartungswert des Merkmals jk, falls es
๐
wirklich unabhängig wäre.
๐
Sei ๐ก โ ∑๐
๐=1 ∑๐=1
Was ist die Wahrscheinlichkeit, dass 91 Äpfel gerade zu viel
sind?
90 − 100
10
⇒ ๐[๐๐ ≤ 90] ≈ Φ (
) = Φ (−
)
√90
√90
10
= 1 −Φ(
) ≈ 1 − Φ(1.05)
โ
√90
0.8531
≈ 0.15
ฬณฬณฬณฬณฬณฬณ
2
∗
๐๐๐
die Abweichung vom erwarteten
Wert.
Wir verwerfen die Nullhypothese ๐ป0 , falls ๐ก > ๐, wobei a so
gewählt ist, dass ๐[๐ ≤ ๐] = 1 − ๐ผ (z.B. 95%). Y ist ๐ 2-verteilt
mit (๐ − 1)(๐ − 1) Freiheitsgraden.
Im Beispiel:
๐ ๐
160⋅130
∗
๐11
= 1⋅ ⋅1 =
= 90.4 ist die erwartete Anzahl
๐
230
männlicher Opfer
๐ ๐
160⋅100
∗
๐12
= 1⋅ ⋅2 =
= 69.6: erwartete Anzahl geretteter
๐
230
Männer
∗
∗
๐21
= 39.6, ๐22
= 30.4
) ⇒ Tabelle: Φ(1.65) =
⇔ ฬณฬณฬณฬณฬณฬณฬณฬณฬณฬณฬณ
๐ = 116
∗
(๐๐๐ −๐๐๐
)
๐ก=
∗ )2
(๐11 − ๐11
∗
๐11
+
∗ )2
(๐12 − ๐12
∗
๐12
+ โฏ = 0.016
Die Quadratur hat die Funktion, dass auch negative
Abweichungen sich positiv auf den Index t auswirken. Danach
wird mit dem theoretischen Erwartungswert skaliert.
Sei Y ๐ 2-verteilt mit 1 = (2 − 1)(2 − 1) Freiheitsgraden.
Dann gilt ๐[๐ ≤ ๐] = 1 − 0.05 = 0.95 ⇔ ๐ = 3.841
Weil ๐ก > ๐ ist, können wir ๐ป0 auf dem Niveau ๐ผ = 5% nicht
verwerfen.
Zuletzt gespeichert: 04.08.2017 05:54, Version 37
5/8
Wahrscheinlichkeitstheorie und Statistik
Stefan Rickli
http://blogs.ethz.ch/ricklis
TESTEN VON HYPOTHESE N ZUM NIVEAU Α
SCHÄTZEN VON PARAMET ERN
Geg: Beobachtungen ๐ฅ1, … , ๐ฅ๐
Annahme: Die Beobachtungen stammen von ๐๐ ~๐(๐, ๐ = 6)
und sind unabhängig.
Wir glauben, dass
๐ = ๐1
(Alternative ๐ป1)
Die Gegenpartei glaubt, dass ๐ = ๐0 (Nullhypothese ๐ป0 ,
welche wir verwerfen wollen)
Setze nun ๐ = ๐0 .
Betrachte die Zufallsvariable ๐0 =
∑๐
๐=1 ๐๐
∑๐
๐=1 ๐ฅ๐
๐
~๐ (๐0,
๐
√๐
Ziel: Schätzung von ๐ anhand von ๐ฅ1 , … , ๐ฅ๐ mit Hilfe des
Maximum-Likelihood-Schätzers
)
Sei nun ๐ก =
der Durchschnitt der Messungen (quasi der
๐
beobachtete Erwartungswert).
Wir verwerfen ๐ป0 , falls ๐ก < ๐,
wobei ๐[๐0 ≤ ๐] = Φ (
๐−๐0
๐
√๐
0.5
√4
๐
๐ฟ(๐, ๐ฅ1, … , ๐ฅ๐ ) = ∏ ๐[๐ = ๐ฅ๐ ]
Die Gemeinsame Dichte von (๐1 , … , ๐๐ ) an der Stelle
(๐ฅ1 , … , ๐ฅ๐ ) ist ๐(๐; ๐ฅ1 , … , ๐ฅ๐ ) = ∏๐๐=1 ๐๐ (๐ฅ๐ )
=: ๐ฟ(๐, ๐ฅ1 , … , ๐ฅ๐ )
(Likelihood-Funktion)
Beispiel für MLE im diskreten Fall:
Geg: Sei ๐~pois(๐), ๐ > 0.
Seien ๐ฅ1, … , ๐ฅ๐ unabhängige Beobachtungen von X.
Def: Der Maximum-Likelihood-Schätzer ๐ฬ ist jenes ๐, welches
die Likelihood-Funktion maximiert.
Bemerkung: ๐ฟ(๐, ๐ฅ1 , … , ๐ฅ๐ ) maximal ⇔ ln(๐ฟ(๐, ๐ฅ1, … , ๐ฅ๐ ))
maximal
⇒ ๐0 = 3 Behauptung des Verkäufers,
๐1 = 2 meine Vermutung / Beobachtung
Die Likelihood-Funktion ist nun
Danach analog zum kontinuierlichen Fall.
๐ฅ1 , … , ๐ฅ๐ sind unabhängige Beobachtungen. Wir wollen ๐ so
wählen, dass die Wahrscheinlichkeit maximal ist, den
beobachteten Ausgang des Experiments auch mit Hilfe der
Zufallsvariablen X zu erhalten.
Ein Verkäufer bietet Säcke mit Kartoffeln à 3kg (mit ๐ = 0.5)
an. Wir kaufen 4 Säcke (=n) und stellen aber einen Durchschnitt
von lediglich 2kg (=t) fest.
Sei X eine diskrete Z.V., seien ๐ฅ1 , … , ๐ฅ๐ unabhängige
Beobachtungen von X.
Idee: ๐ฅ1, … , ๐ฅ๐ stammen von ๐1 , … , ๐๐ unabhängig, wobei die
๐๐ die gleiche Verteilung wie X haben.
)=๐ผ ⇔ ๐=โฏ
BEISPIEL: VERKAUF VO N SÄCKEN MIT
KARTOFFELN
๐0~๐ (3,
Zufallsvariable X mit Dichte ๐๐ (๐ฅ) (= ๐๐ −๐๐ฅ , ๐ฅ > 0)
๐ฅ1, … , ๐ฅ๐ unabhängige Beobachtungen von X
Geg:
DISKRETER FALL:
1
) = ๐ (3, )
4
๐=1
Was ist der MLE von ๐?
1)
2)
ln(๐ฟ) = −๐๐ + ∑๐๐=1
= −๐๐ +
๐
∑๐๐=1 ๐ฅ๐
๐ฅ๐ !
๐
= ๐ −๐๐ ∏๐๐=1
๐ ๐ฅ๐
๐ฅ๐ !
๐ฅ๐
ln ( )
โ ๐ฅ๐ !
ln(๐
โ
3)
๐ ๐ฅ๐
๐ฟ(๐, ๐ฅ1, … , ๐ฅ๐ ) = ∏๐๐=1 ๐ −๐
๐ฅ๐ )
−ln(๐ฅ๐ !)
๐ฅ๐ ln ๐
ln ๐ −
1
∑๐๐=1 ln(๐ฅ๐ !)
!
๐๐
(ln(๐ฟ)) = −๐ + ⋅ ∑๐๐=1 ๐ฅ๐ = 0
⇔
∑
๐ฅ
๐ฬ = ๐=1 ๐ ist der MLE von ๐.
๐
๐
๐
KONTINUIERLICHER FAL L:
Für ๐ผ = 5% brauchen wir bei einer Tabelle, welche die Fläche
links des gesuchten Werts angibt, die Formel 1 − 0.05 = 0.95
und suchen einen Wert, der möglichst nahe daran liegt, in der
Tabelle. Der entsprechende Eintrag ist 1.65. Da wir an einer
Abweichung links des Nullpunkts interessiert sind, benützen wir
−1.65.
Beispiel:
2
−๐๐ฅ
, ๐ฅ > 0 ,๐ > 0
Die Z.V. X habe die Dichte ๐๐ (๐ฅ) = { ๐ ๐ฅ๐
0,
๐ฅ≤0
Seien ๐ฅ1 , … , ๐ฅ๐ unabhängige Beobachtungen von X. Was ist der
MLE für ๐?
๐−3
−1.65 =
⇔ ๐ = 2.5875 kg
0.5
√4
1)
Aussage: „Die Wahrscheinlichkeit, bei einer Normalverteilung
mit Zentrum 3kg und Standardabweichung 0.5kg, bei einer
Stichprobe von 4 Stück einen Durchschnitt von unter 2.5875kg
zu erwischen, ist tiefer als 5%.“
L aufstellen
๐ฟ(๐, ๐ฅ1 , … , ๐ฅ๐ ) = ∏๐๐=1 ๐๐ (๐ฅ๐ ) bestimmen
๐
= ๐ 2๐ (∏๐๐=1 ๐ฅ๐ ) ⋅ ๐ −๐ ∑๐=1 ๐ฅ๐
2)
logarithmieren
ln(๐ฟ(๐, ๐ฅ1, … , ๐ฅ๐ )) = โ
ln(๐ 2๐ ) + ln(∏๐๐=1 ๐ฅ๐ ) + ๐ ∑๐๐=1 ๐ฅ๐
2๐⋅ln ๐
3)
95%
ableiten und gleich Null setzen
๐
๐๐
5%
−1.65
0
1.65
Zuletzt gespeichert: 04.08.2017 05:54, Version 37
⇔
5%
t
a
(ln(๐ฟ)) =
2๐
๐
!
− ∑๐๐=1 ๐ฅ๐ = 0
2๐
๐ฬ = ∑๐
ist der ML-Schätzer von ๐
๐=1 ๐ฅ๐
๐0 = 3kg
6/8
Wahrscheinlichkeitstheorie und Statistik
Stefan Rickli
http://blogs.ethz.ch/ricklis
MATHEMATISCHER ANHANG
Indikatorfunktion:
1, ๐ฅ > 0
๐{๐ฅ>0} = {
0 sonst
KOMPLEXE ZAHLEN
1
(๐ง + ๐ง ∗)
2
1
Im{๐ง} = (๐ง − ๐ง ∗ )
2๐
Re{๐ง} =
EULER’SCHE IDENTITÄT EN
1 ๐๐ฅ
(๐ − ๐ −๐๐ฅ )
2๐
1 ๐ฅ
sinh ๐ฅ = (๐ − ๐ −๐ฅ )
2
sin ๐ฅ =
1 ๐๐ฅ
(๐ + ๐ −๐๐ฅ )
2
1 ๐ฅ
cosh ๐ฅ = (๐ + ๐ −๐ฅ )
2
cos ๐ฅ =
TRIGONOMETRISCHE IDE NTITÄTEN
sin2 ๐ฅ + cos 2 ๐ฅ = cosh2 ๐ฅ − sinh2 ๐ฅ = 1
cosh ๐ฅ + sinh ๐ฅ = ๐ ๐ฅ
sin(๐๐ฅ) = ๐ sinh ๐ฅ ⇔ sinh(๐๐ฅ) = ๐ sin ๐ฅ
cos(๐๐ฅ) = cosh ๐ฅ ⇔ cosh(๐๐ฅ) = cos ๐ฅ
sin ๐ฅ
tan ๐ฅ =
cos ๐ฅ
1
cot ๐ฅ =
tan ๐ฅ
sin(๐ฅ ± ๐ฆ) = sin ๐ฅ cos ๐ฆ ± cos ๐ฅ sin ๐ฆ
cos(๐ฅ ± ๐ฆ) = cos ๐ฅ cos ๐ฆ โ sin ๐ฅ sin ๐ฆ
2 sin ๐ฅ sin ๐ฆ = cos(๐ฅ − ๐ฆ) − cos(๐ฅ + ๐ฆ)
2 cos ๐ฅ cos ๐ฆ = cos(๐ฅ − ๐ฆ) + cos(๐ฅ + ๐ฆ)
2 sin ๐ฅ cos ๐ฆ = sin(๐ฅ − ๐ฆ) + sin(๐ฅ + ๐ฆ)
2 tan ๐ฅ
sin(2๐ฅ) = 2 sin ๐ฅ cos ๐ฅ =
2
1+tan ๐ฅ
cos(2๐ฅ) = cos 2 ๐ฅ − sin2 ๐ฅ = 1 − 2 sin2 ๐ฅ = 2 cos 2 ๐ฅ − 1
1
sin2 ๐ฅ = (1 − cos(2๐ฅ))
2
1
cos 2 ๐ฅ = (1 + cos(2๐ฅ))
2
sin(arccos ๐ฅ) = cos(arcsin ๐ฅ) = √1 − ๐ฅ 2
Für Copy-Paste:
๐
https://en.wikipedia.org/wiki/Blackboard_bold mit Firefox
Copy&Paste
Zuletzt gespeichert: 04.08.2017 05:54, Version 37
7/8
Wahrscheinlichkeitstheorie und Statistik
Stefan Rickli
1 Bemerkungen (V3.1)
2 Ressourcen zu „Word und Formeleditor“
Disclaimer
Meine Formelsammlungen entstehen und wachsen meist über eine längere Zeit. Es besteht immer ein gewisses Risiko, dass sich
einige Fehler über zig Iterationen versteckt gehalten haben. Ich freue mich deshalb über jegliche (Fehler-) Verbesserungen,
Anmerkungen, Lob, Dank oder auch Kritik.
Meine Zusammenfassungen werden fortlaufend korrigiert und aktualisiert veröffentlicht.
Weiterverarbeitung:
Weil ich es nicht ausstehen kann, dass ständig das Rad neu erfunden werden muss, habe ich das Originaldokument mit veröffentlicht
mit der Einladung, sich hier für die eigene Formelsammlung zu bedienen. Ihr könnt diese Zusammenfassung also gerne
weiterverarbeiten und / oder auch in überarbeiteter Form veröffentlichen.
Haltet jedoch die Herkunft der kopierten/übernommenen Teile so gut wie möglich nachvollziehbar, falls ihr weiter veröffentlicht.
Obiges gilt auch für alle anderen Formelsammlungen von mir, welche diesen Bemerkungstext (noch) nicht enthalten.
Quellenangaben:
Aus Platz- und Zeitgründen (blame the 'Prüfungsstress') fehlen natürlich praktisch jegliche Quellenangaben (worüber ich auch schon
ab und zu fluchen musste). Ich versuche jedoch in diesem Abschnitt die Arbeiten zu referenzieren, von denen ich wissentlich kopiert
habe:
Wesentliche Bestandteile:
Grundform
Zusammenfassung ‘Wahrscheinlichkeitstheorie und Statistik’ von Lukas Cavigelli, Juli 2011
Ergänzungen
Zusammenfassung ‘Probability Theory and Statistics’ von Raphael Keusch, Juli 2013
Beispiele
Übungsserien FS15
Revisionsverlauf:
1.0
Sept 2015
1.1
11.07.2016
erste Veröffentlichung
Bemerkungsseite aktualisiert
Fehlerkorrektur: Text zu bedingter Wahrscheinlichkeit, Tabelle mit 2D-Verteilung
Dank an Evan für die Hinweise!
To Do:
๏ท
Zuletzt gespeichert: 04.08.2017 05:54, Version 37
http://blogs.ethz.ch/ricklis
Stefan Rickli
Stefan Rickli
Es gibt ein paar Ressourcen, welche mir sehr geholfen haben, den Formeleditor in Word zu meistern:
Microsoft Word formula editor: https://support.office.com/en-us/article/Linear-format-equations-and-MathAutoCorrect-in-Word-2e00618d-b1fd-49d8-8cb4-8d17f25754f8?ui=en-US&rs=en-US&ad=US
Unicode Nearly Plain-Text Encoding of Mathematics: http://www.unicode.org/notes/tn28/
o
das ist der Standard, an den sich der Editor (fast vollständig) hält. Ist sehr gut beschrieben und
dokumentiert. Ausnahme sind Umrahmungen, welche nicht die ganze Funktionalität erhalten haben.
Die Zeichenübersicht des Editors selber: wenn man mit der Maus über ein Zeichen fährt, zeigt es einem den TastaturShortcut an, den man eingeben kann
Nice to know:
Alt + Shift + 0
erstellt eine neue Formel
(durch einen Bug in Office 2016 muss dieser Shortcut neu manuell definiert werden, Stand Mai 2016)
der Leerschlag ist euer Freund! Er veranlasst den Formeleditor, die Syntax bis zum aktuellen Punkt zu überprüfen und
das Zeug fixfertig bis zu dem Punkt, wo ihr seid, darzustellen (ausser es gibt noch offene Klammern).
o
verhält sich der Editor mal komisch, liegt es zu 95% daran, dass etwas in der Syntax nicht stimmt. Hier hilft
ab und an mal, sich die Formel im linearen Modus anzuschauen, wo alles bis auf Sonderzeichen wieder
auseinander genommen wird. Das einzige, mit dem der Editor Mühe hat, sind grosse Eq-Arrays und
mehrzeiliges Zeug.
Wenn die Formel auf einer eigenen Zeile steht, veranlasst ein Leerschlag ausserhalb nach der Formel (also AUSSERHALB
des Formeleditorfelds) den Editor, die Formel im Inline-Modus darzustellen (Formel braucht weniger Platz)
o
siehe Tabellen in dieser ZF, dort habe ich das konsequent benutzt. Löscht mal das Leerzeichen nach einer
Formel, das ein Integral enthält ๏
benutzt die Backslash (\) Befehle! Wenn man sich die beiden Dokumente oben ausdruckt und zur Referenz hält, geht es
nicht lange, bis man alles mit der Tastatur machen kann und nie absetzen muss, um was mit der Maus zu machen
\ensp und \emsp können helfen, um grössere, gewollte Abstände zu realisieren
\\eqarray ordnet mit jedem & einmal links und dann wieder rechts an
bastelt euch eure eigenen Shortcuts
o
zum Beispiel
๏ง
\La für ⇐
๏ง
\Ra für ⇒
๏ง
\Lra für ⇔
๏ง
oder \to für ein →
๏ง
oder eine leere 4x4 Matrix als \4x4 mit (โ (&&&@&&&@&&&@&&&)) und einem Leerschlag
am Ende (damit der Ausdruck gleich aufgebaut wird)
๏ง
etc
o
dazu einfach das entsprechende Zeichen in die Zwischenablage kopieren und im Formeleditor unter
„Formeloptionen“ (in den Tools als kleiner Pfeil unten rechts zu finden) und „Math. Autokorrektur“
einfügen und den entsprechenden Backslashbefehl definieren
o
manchmal ist es sinnvoll, noch eigene Funktionsnamen zu definieren, welche der Editor erkennen soll,
wenn man sie häufig benutzt. Z.B. Imag()
๏ง
ansonsten Leerschlag funktionsname\funcapply Leerschlag
die mathematische Autokorrektur ist manchmal auch ausserhalb des Formeleditors nützlich. Ich hab das in den
Optionen auch aktiviert
Wenn Word langsam wird wegen vielen anzuzeigenden Formeln, hilft
o
1. die Entwurfsansicht (anstatt Seitenlayout). Wenn man sich damit abfindet, dass dann ab und zu das
Layout (noch) nicht dargestellt oder updated wird (nicht beirren lassen), kann man gut die kritischen
Abschnitte bearbeiten. Achtung: Bilder werden NICHT angezeigt, sondern einfach mit einem Leerschlag
repräsentiert!
o
2. reinzoomen, bis weniger Formeln sichtbar sind.
8/8