http://blogs.ethz.ch/ricklis WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Zusammenfassung zur Vorlesung von Prof. Dr. A.-S. Sznitman Zu dieser Zusammenfassung gehören noch zwei Seiten Scans aus den Übungsstunden zum Thema Statistik. Download unter http://blogs.ethz.ch/ricklis/studienunterlagen Die Platzeinteilung ist für eine Abschrift von Hand gemäss den Prüfungsbedingungen der Klausur im FS15 ± geeignet. (5 Blätter A4 handbeschrieben) KOMBINATORIK Anzahl Möglichkeiten, k Elemente aus einer n-elementigen Menge zu ziehen: geordnet ungeordnet mit Zurücklegen ๐+๐−1 ( ) ๐๐ ๐ ๐! ๐ ohne Zurücklegen ( ) ๐ (๐ − ๐)! Permutation Ohne Wiederholungen: ๐! Mit Wiederholungen: ๐! ๐ค1 !⋅๐ค2 !⋅… Identitäten des Binomialkoeffizienten ๐ ๐−1 ๐−1 ( )=( )+( ) ๐ ๐−1 ๐ ๐ ๐ (๐) = (๐ − ๐) ๐ ๐ ๐ ∑ ( ) ⋅ ๐ฅ ๐ ⋅ ๐ฆ ๐−๐ = (๐ฅ + ๐ฆ)๐ ๐ ๐ ∑ ( ) = 2๐ ๐ ๐=0 ๐ ๐=0 ๐, ๐ ≥ ๐ ๐=0 ๐ ๐ ∑ ๐ ( ) = ๐ ⋅ 2๐−1 ๐ ๐=0 ๐ ๐ ๐ ๐+๐ ∑ (๐ − ๐ ) ⋅ ( ๐ ) = ( ) ๐ ๐=0 Geometrische Reihe: Summenformeln ๐ ∑ ๐๐ = ๐=0 ∞ ∑ ๐๐ = ๐=0 ∞ ∑ ๐๐ = ๐=๐ GAUSS’SCHE NORMALVER TEILU NG ๐~๐ฉ(๐, ๐) Abkürzungen: k: Anzahl Versuche bis zum ersten Erfolg in einer unendl. Folge von unabhängigen 0-1-Experimenten mit Erfolgsparam. ๐. P: ๐[๐ = ๐] = ๐๐ (๐) = ๐(1 − ๐)๐−1, ๐ ≥ 1 Dist: ๐น(๐) = ๐[๐ ≤ ๐] = ๐ ∑๐๐=1(1 − ๐)๐−1 = 1 − (1 − ๐)๐ ๐ ๐ 1 1 ๐ E: ๐ธ[๐] = โฏ = −๐ (∑∞ ( )= ๐=0(1 − ๐) ) = −๐ ๐: Zentrierungsparameter, ๐: Breiteparameter 1 − ๐๐+1 , 1−๐ ๐≠1 1 , 1−๐ |๐| < 1 ๐๐ , 1−๐ |๐| < 1 P: W’keiten, Dist: Verteilungsfkt, Dens: Dichte E: Erwartungswert, V: Varianz DISKRETE VERTEILUNGE N Normalisierungsbedingung: ∑๐ฅ∈๐ธ ๐(๐ฅ) = 1 BERNOU LLI -VERTEILUNG ๐~๐๐(๐) Die Bernoulliverteilung ist die Verteilung eines zufälligen 0-1Experiments mit Erfolgsparameter ๐ ∈ [0,1] und ๐: Ω → {0,1}. P: ๐[๐ = 1] = ๐, ๐[๐ = 0] = 1 − ๐ 0, ๐ < 0 Dist: ๐น(๐) = ๐[๐ ≤ ๐] = {1 − ๐, 0 ≤ ๐ < 1 1, 1 ≤ ๐ E: ๐ธ[๐] = ๐ V: var[๐] = ๐(1 − ๐) BINOMIALVERTEILUNG ๐~๐๐๐(๐, ๐) Die Verteilung der totalen Anzahl von Erfolgen von ๐ unabhängigen 0-1-Experimenten heisst Binomialverteilung der Länge ๐ mit Erfolgparameter ๐. ๐ P: ๐[๐ = ๐] = ( ) ๐๐ (1 − ๐)๐−๐ , 0 ≤ ๐ ≤ ๐ ๐ ๐ Dist: ๐น(๐) = ๐[๐ ≤ ๐] = ∑๐๐=0 ( ) ๐๐ (1 − ๐)๐−๐ ๐ V: ๐! ๐ ( )โ ๐ ๐! (๐ − ๐)! ๐ ๐ ๐+๐ ) = ∑( )⋅( ) ๐ ๐−๐ ๐ GEOMETRISCHE VERTEIL UNG ๐~๐๐๐๐(๐) E: Binomialkoeffizient ( VERTEILUNGEN ๐ธ[๐] = ๐ธ[๐1 + โฏ + ๐๐ ] = ๐ธ[๐1 ] + โฏ + ๐ธ[๐๐ ] = ๐๐ธ[๐1 ] = ๐๐ var[๐] = var[๐1 + โฏ + ๐๐ ] = โฏ = ๐ var[๐1 ] = ๐๐(1 − ๐) Stabilität der Binomialverteilung: Seien ๐~ bn(๐1 , ๐) und ๐~ bn(๐2 , ๐) unabhängig, dann: ๐ + ๐~ bn(๐1 + ๐2 , ๐) V: 1 ๐2 − Verteilung der Anzahl Erfolge in einer grossen Anzahl (n) unabhängigen 0-1-Experimenten, welche alle eine kleine Erfolgswahrscheinlichkeit haben. Approximation für Binomialverteilung für ๐ → ∞, ๐ → 0, ๐๐ = ๐ ∈ (0, ∞) ๐ ๐ ๐ −๐ ๐! 1 ๐๐ ๐๐ ๐ HYPERGEOMETRISCHE VE RTEILUNG W’keit dafür, dass bei ๐ gegebenen Elementen, von denen ๐ die gewünschte Eigenschaft besitzen, beim Herausgreifen von ๐ Probestücken genau ๐ Treffer erzielt werden, d.h. die W’keit für ๐ = ๐ Erfolge in ๐ Versuchen. (๐)(๐−๐) ๐ ๐−๐ (๐ ๐) P: ๐[๐ = ๐] = Dist: ๐น(๐) = ๐[๐ ≤ ๐] = ∑๐๐=0 E: ๐ธ[๐] = ๐ V: ๐ ๐ var(๐) = ๐ ๐ ๐ (๐)(๐−๐) ๐ ๐−๐ (๐ ๐) ๐ ๐−๐ (1 − ) ๐ ๐−1 ๐[๐ = ๐] = Dist: E: V: ๐น(๐) = ๐[๐ ≤ ๐] = ๐ −๐ ∑๐๐=0 ๐! ๐ธ[๐] = ๐ var(๐) = ๐ , ๐≥0 Dist: ๐น(๐ฅ) = 1 √2๐๐ 1 √2๐๐ exp (− (๐ฅ−๐)2 2๐2 ๐ฅ ∫−∞ exp (− ) (๐ฅ−๐)2 2๐2 ) ⋅ ๐๐ฅ E: ๐ธ[๐] = ๐ V: var[๐] = ๐ 2 Wendepunkte der Dichte: ๐ฅ = ๐ ± ๐ Maximum: ๐(๐ฅ๐๐๐ฅ = ๐) = ๐~๐ฉ, var[๐] = ∑ ๐ผ๐2 var[๐๐ ] ๐ธ[๐] = ∑ ๐ผ๐ ๐ธ[๐๐ ] , ๐ ๐ Theorem von de Moivre-Laplace: ๐→∞ ๐ 1 ๐ฅ2 ๐[๐ ≤ ๐ ≤ ๐] ⇒ ∫ exp (− ) ⋅ ๐๐ฅ = Φ(๐) − Φ(๐) 2 ๐ √2๐๐ Wobei Φ(๐ฅ) die Verteilungsfunktion einer Standardnormalverteilung ist. Siehe unten. STANDARDNORMALVERTEI LU NG ๐~๐ฉ(0,1) Gauss’sche Normalverteilung mit ๐ = 0, ๐ = 1. ๐(๐ฅ) = ๐(๐ฅ) = STETIGE VERTEILUNGEN Dist: Φ(๐ฅ) = ๐น(๐ฅ) = GLEICHVERTEILUNG ๐~๐ฐ(๐, ๐) Eigenschaften von ๐ und Φ: ๐(๐ฅ) = ๐(−๐ฅ), auf dem Intervall [๐, ๐], ๐ < ๐ 1 , ๐ฅ ∈ [๐, ๐] Dens: ๐(๐ฅ) = {๐−๐ 0, ๐ฅ ∉ [๐, ๐] Dist: ๐ฅ−๐ ๐น(๐ฅ) = {๐−๐ 0, ๐ฅ < ๐ , ๐≤๐ฅ≤๐ 1 √2๐๐ Summe unabhängiger Normalverteilungen: Seien alle ๐๐ ~๐ฉ(๐๐ , ๐๐ ) unabhängig und ๐ = ∑๐ ๐ผ๐ ๐๐ , dann: Dens: 1 exp (− ๐ฅ2 ) 2 ๐ฅ ๐ฅ2 ∫−∞ exp (− 2 ) ⋅ √2๐ √2๐ 1 ๐๐ฅ Φ(−๐ฅ) = 1 − Φ(๐ฅ) Gauss’sche Normalverteilung → Standardnormalverteilung: Eine normalverteilte Zufallsvariable ๐ mit Parametern ๐ und ๐ lässt sich mit Variablentrafo in die Standnormalvert. überführen ๐= ๐−๐ , ๐ ⇒ ๐~๐ฉ(๐, ๐), ๐ธ[๐] = 0, ๐~๐ฉ(0,1) var[๐] = 1 1, ๐ฅ > ๐ Lineare Funktion einer Standardnormalverteilung ๐~๐ฉ(0,1), ๐ = ๐ผ๐ + ๐ฝ ⇒ ๐~๐ฉ(๐ผ, ๐ฝ) ๐+๐ E: ๐ธ[๐] = V: var[๐] = 2 1 12 (๐ − ๐)2 ZENTRALER GRENZWERTS ATZ EXPONENTIALVERTEILUN G ๐~๐๐ฅ๐(๐) P: ๐ ๐ Gedächtnislosigkeit: ๐[๐ = ๐0 + ๐|๐ > ๐0 ] = ๐[๐ = ๐]∀๐, ๐0 Normalisierungsbedingung: ∑∞ (๐=0) ๐๐ (๐) = 1 POISSON- VERTEILUNG ๐~๐๐๐๐ (๐) ๐๐ Stabilität: ๐~ pois(๐) , ๐~ pois(๐), dann: ๐ + ๐~ pois(๐ + ๐) Stetiges Analogon zur geometrischen Verteilung. −๐๐ฅ Dens: ๐(๐ฅ) = {๐๐ , ๐ฅ ≥ 0 0, ๐ฅ<0 −๐๐ฅ Dist: ๐น(๐ฅ) = {1 − ๐ , ๐ฅ ≥ 0 0, ๐ฅ<0 1 E: ๐ธ[๐] = ๐ V: Zuletzt gespeichert: 04.08.2017 05:54, Version 37 var(๐) = Dens: ๐(๐ฅ) = var[๐] = 1 ๐2 Seien ๐๐ ‚independent and identically distributed‘ (iid) Zufallsvariablen und ๐ = ๐1 + โฏ + ๐๐ mit ๐ธ[๐] = ๐ โ ๐ธ[๐๐ ] und var[๐] = ๐ โ var[๐๐ ], so gilt: ๐→∞ ๐ − ๐ธ[๐] ๐[ ≤ ๐ง] → ๐ฉ(0,1) √var[๐] Die Verteilung der Summe von unendlich vielen gleichen Verteilungen nähert sich (nach Zentrierung und Skalierung) der einer Standardardnormalverteilung. Gedächtnislosigkeit: ๐[๐ ≥ ๐ก + ๐ |๐ ≥ ๐ ] = ๐[๐ ≥ ๐ก] 1/8 Wahrscheinlichkeitstheorie und Statistik Stefan Rickli GRUNDLAGEN GRUND RAUM & E REIGNIS SE Grundraum: Die nichtleere Menge Ω, welche alle elementaren Ereignisse enthält, heisst Grundraum. Der Grundraum enthält alle möglichen Realisationen eines Experiments. Elementarereignis: ๐ ∈ Ω heisst Elementarereignis und ist eine Realisation eines Experiments. Ereignis: ๐ด ⊆ Ω heisst Ereignis und ist eine Menge von Elementarereignissen. WAHRSCHEINLICHKEITSR ÄUME Wahrscheinlichkeit eines Ereignisses: Jedem Ereignis ๐ด wird die Wahrscheinlichkeit ๐[๐ด] ∈ [0,1] zugeordnet. Dabei gilt ๐[Ω] = 1. Ist ๐ด = โ๐๐=1 ๐ด๐ und ๐ด๐ paarweise disjunkt, so gilt: ๐ ๐[๐ด] = ∑ ๐[๐ด๐ ] ๐=1 Wahrscheinlichkeitsraum: Ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, โฑ, ๐), wobei Ω der Grundraum, โฑ ⊆ ๐ซ(Ω) eine Kollektion von Ereignissen und ๐ eine Abbildung ๐ด ∈ โฑ โฆ ๐[๐ด] ∈ [0,1] ist. Dazu setzen wir voraus, dass โฑ und ๐ folgendes erfüllen: โฑ ist eine ๐-Algebra, d.h. es gilt: ๏ง Ω∈โฑ ๏ง ๐ด ∈ โฑ ⇒ ๐ด๐ถ ∈ โฑ ๏ง Für jede Folge ๐ด๐ , ๐ ≥ 1 mit ๐ด๐ ∈ โฑ gilt โ∞ ๐=1 ๐ด๐ ∈ โฑ ๐ ist eine Wahrscheinlichkeit, d.h. es gilt: ๏ง ๐[Ω] = 1 ๏ง Für ๐ด๐ , ๐ ≥ 1 eine Folge von Ereignissen, welche paarweise disjunkt sind (๐ด๐ ∩ ๐ด๐ = ∅ ∀๐ ≠ ๐) gilt (๐-Additivität): ∞ ๐[โ∞ ๐=1 ๐ด๐ ] = ∑๐=1 ๐[๐ด๐ ] Folgerungen aus der Definition: ๏ง ๐[∅] = 0 ๏ง ๐[๐ด๐ถ ] = 1 − ๐[๐ด] ๏ง Wenn eine Folge von Ereignissen paarweise disjunkt ist, können ihre Wahrscheinlichkeiten addiert werden. ๐ด1, … , ๐ด๐ ∈ โฑ endl. Folge mit ๐ด๐ ∩ ๐ด๐ = ∅ (1 ≤ ๐ ≠ ๐ ≤ ๐), dann gilt: ๐[โ๐๐=1 ๐ด๐ ] = ∑๐๐=1 ๐[๐ด๐ ] ๏ง ๐ด ⊆ ๐ต โน ๐[๐ด] ≤ ๐[๐ต] ๏ง ๐ด ⊆ ๐ต โน ๐[๐ต โ ๐ด] = ๐[๐ต] − ๐[๐ด] ๏ง Kettenregeln ๐[๐ด ∩ ๐ต] = ๐[๐ด|๐ต] โ ๐[๐ต] = ๐[๐ต|๐ด] โ ๐[๐ด] ๐[๐ด ∩ ๐ต ∩ ๐ถ] = ๐[๐ถ|๐ด ∩ ๐ต] โ ๐[๐ด ∩ ๐ต] = ๐[๐ถ|๐ด ∩ ๐ต] โ ๐[๐ต|๐ด] โ ๐[๐ด] ๐[๐ด] = ๐[๐ด ∩ ๐ต] + ๐[๐ด ∩ ๐ต ๐ถ ] http://blogs.ethz.ch/ricklis Für ๐ด ∈ โฑ und ๐๐ stetig gilt analog: ZUFALLSVARIABLEN, VE RTEILUNGEN, DICHTE ๐[๐ด] = ∫ ๐[๐ด|๐ = ๐ฆ] ⋅ ๐๐ (๐ฆ) ⋅ ๐๐ฆ ๐ธ๐ ZUFALLSVARIABLE Formel von Bayes: ๐[๐ต ∩ ๐ด] ๐[๐ต|๐ด] = ๐[๐ด] LAPLACE - MODELL Laplace-Modell: Ist der Grundraum Ω endlich, โฑ = ๐ซ[Ω] und haben alle Elementarereignisse ๐ ∈ Ω dieselbe Wahrscheinlichkeit ๐(๐) = ๐[{๐}] = 1⁄|Ω| so heisst der W‘keitsraum (Ω, โฑ, ๐) Laplace-Modell. Ist ๐ด ⊆ Ω (d.h. ๐ด ∈ โฑ), so gilt: ๐[๐ด] = |๐ด| # günstige = |Ω| # mögliche Bayes = ๐[๐ด|๐ต] ⋅ ๐[๐ต] ๐[๐ด] allgemeiner: Sei ๐ต1 , … , ๐ต๐ ∈ โฑ eine Zerlegung von Ω mit ๐[๐ต๐ ] > 0 ∀๐ ∈ {1, … , ๐} und ๐ด ∈ โฑ ein Ereignis mit ๐[๐ด] > 0. ๐[๐ต๐ |๐ด] = ๐[๐ด|๐ต๐ ] โ ๐[๐ต๐ ] ๐[๐ด|๐ต๐ ] โ ๐[๐ต๐ ] = ๐ ๐[๐ด] ∑๐=1 ๐[๐ด|๐ต๐ ] โ ๐[๐ต๐ ] ๐[๐ต๐ ] heisst die a priori W’keit der Ursache ๐ต๐ . ๐[๐ต๐ |๐ด] heisst die a posteriori W’keit der Ursache ๐ต๐ (gegeb. ๐ด) Bsp: Die dreiköpfigen Familien A&B rennen um die Wette UNABHÄNGIGKEIT Geg: ๐[๐ธ1 ] = ๐[eine Mutter gewinnt], ๐[๐ธ2 ] = ๐[Familie A gewinnt], Unabhängigkeit zweier Ereignisse: ๐[๐ธ3 ] = ๐[ein Elternteil von B gewinnt] Sei (Ω, โฑ, ๐) ein W’keitsraum. Zwei Ereignisse ๐ด, ๐ต ∈ โฑ (mit ] Ges: ๐[๐ธ4 = ๐[ein Vater oder das Kind von A gewinnt] =? möglicherweise Null W’keit) heissen genau dann unabhängig, Ω = {(๐, ๐ด), (๐, ๐ด), (๐พ, ๐ด), (๐, ๐ต), (๐, ๐ต), (๐พ, ๐ต)} wenn: ๐ธ4 = {(๐, ๐ด), (๐, ๐ต), (๐พ, ๐ด)} = โฏ ๐[๐ด ∩ ๐ต] = ๐[๐ด] โ ๐[๐ต] und [๐ด|๐ต] = ๐[๐ด] = {(๐, ๐ต), (๐, ๐ต)} โ {(๐, ๐ต)} ∪ {(๐, ๐ด), (๐, ๐ด), (๐พ, ๐ด)} โ {(๐, ๐ด)} ๐[๐ธ4 ] = ๐[๐ธ3 โ {(๐, ๐ต)}] + ๐[๐ธ2 โ {(๐, ๐ด)}] = โฏ Die zusätzliche Information von B ändert bei Unabhängigkeit = ๐[๐ธ3 ] − ๐[{(๐, ๐ต)}] + ๐[๐ธ2 ] − ๐[{(๐, ๐ด)}] also nichts an der Eintretenswahrscheinlichkeit von A. = ๐[๐ธ3 ] + ๐[๐ธ2 ] − (๐[{(๐, ๐ด)}] + ๐[{(๐, ๐ต)}]) ] ] (๐, = ๐[๐ธ3 + ๐[๐ธ2 − ๐[{(๐, ๐ด), ๐ต)}] |๐ด|⋅|๐ต| Im Laplace-Modell: ๐ด, ๐ต ⊆ Ω unabhängig ⇔ |A ∩ B| = |Ω| = ๐[๐ธ3 ] + ๐[๐ธ2 ] − ๐[๐ธ1] ๐ถ BEDINGTE WAHRSCHEINL ICHKEIT Ist 0 < ๐[๐ด] < 1, so sind ๐ด und ๐ด nie unabhängig. Bedingte Wahrscheinlichkeit: Sei (Ω, โฑ, ๐) ein W’keitsraum und ๐ด, ๐ต ∈ โฑ Ereignisse mit ๐[๐ต] > 0, dann heisst: Unabhängigkeit einer Kollektion von Ereignissen: Sei ๐ด1 , … , ๐ด๐ eine Kollektion von Ereignissen (d.h. ๐ด๐ ∈ โฑ ∀๐) Die Kollektion heisst unabh., falls ∀1 ≤ ๐1 < ๐2 < โฏ < ๐๐ ≤ ๐ mit 2 ≤ ๐ ≤ ๐ gilt: ๐[๐ด๐1 ∩ … ∩ ๐ด๐๐ ] = ๐[๐ด๐1 ] โ … โ ๐[๐ด๐๐ ] ๐[๐ต|๐ด] = ๐[๐ต ∩ ๐ด] ๐[๐ด] die bedingte Wahrscheinlichkeit von ๐ต gegeben ๐ด. Im Laplace-Modell: ๐[๐ต|๐ด] = günstige mögliche = |๐ต∩๐ด| |๐ด| „Wenn wir wissen, dass A eintritt, so sind die möglichen Fälle natürlich nur noch jene, bei denen A eintritt.“ Unabhängigkeit zweier Zufallsvariablen: Sei (Ω, โฑ, ๐) ein W’keitsraum. Seien ๐, ๐ zwei Zufallsvar. auf Ω. ๐ und ๐ heissen unabhängig, wenn ∀๐, ๐ ∈ โ gilt: ๐[{๐ ≤ ๐} ∩ {๐ ≤ ๐ต}] = ๐[๐ ≤ ๐] โ ๐[๐ ≤ ๐] Zufallsvariable: Sei (Ω, โฑ, ๐) ein W’keitsraum. Eine reelle Zufallsvariable X ist eine Abb. ๐: Ω → โ, so dass für ein ๐ฅ ∈ โ gilt: {๐ ∈ Ω|๐(๐) ≤ ๐ฅ} ∈ โฑ ∈ โฑ heisst: „muss ein beobachtbares Ereignis sein“ Notation: Man schreibt {๐ ≤ ๐ฅ} für {๐ ∈ Ω|๐(๐) ≤ ๐ฅ}. „{๐ ≤ ๐ฅ} ist die Menge aller Elementarereignisse ω, deren Abbildung / Bewertung durch ๐(๐) auf eine reelle Zahl unterhalb einer gewissen Schwelle a liegen.“ Wenn X z.B. die Augenanzahl beim Würfeln wiedergibt, dann ist ๐[๐ ≤ ๐ฅ] = ๐[{๐ ∈ Ω|๐(๐) ≤ ๐ฅ}] die W’keit, dass der Würfel kleiner gleich a zeigt. Diskrete Zufallsvariable: Eine Zufallsvariable X heisst diskret, wenn die Menge ๐ธ = {๐ฅ ∈ โ: {๐ = ๐ฅ} ≠ ∅} höchstens abzählbar unendlich ist. „VERTEILUNG“ -BEGRIFFE Verteilungsfunktion Diskret ๐[๐ = ๐ฅ] = ๐๐ (๐ฅ) = ๐๐ฅ „Gewichtsfkt. / W’keitsfkt.“ ๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ] 2D-Verteilung Siehe Tabellenbeispiel Verteilung ๐ ๐ ๐ [โ ๐ด๐ ] = ∑(−1)๐−1 ๐=1 ๐=1 ∑ ๐[๐ด๐1 ∩ … ∩ ๐ด๐๐ ] 1≤๐1 <โฏ<๐๐ ≤๐ Bsp mit 3 Ereignissen A,B und C: ๐[๐ด ∪ ๐ต ∪ ๐ถ] = ๐[๐ด] + ๐[๐ต] + ๐[๐ถ] −๐[๐ด ∩ ๐ต] − ๐[๐ต ∩ ๐ถ] − ๐[๐ถ ∩ ๐ด] +๐[๐ด ∩ ๐ต ∩ ๐ถ] ๏ง De-Morgan ๐ถ ๐ด ∩ ๐ต = (๐ด ∪ ๐ต ๐ถ )๐ถ , ๐ด ∪ ๐ต = (๐ด๐ถ ∩ ๐ต ๐ถ )๐ถ Folgerungen aus der Definition: ๏ง ๐[๐ด๐ถ |๐ต] = 1 − ๐[๐ด|๐ต] ๏ง ๐ด๐ ‘s paarweise disjunkt: ๐[(โ๐ ๐ด๐ )|๐ต] = ∑๐ ๐[๐ด๐ |๐ต] ๏ง ๐ด๐ ‘s unabhängig: ๐[(โ๐ ๐ด๐ )|๐ต] = ∏๐ ๐[๐ด๐ |๐ต] Formel der totalen Wahrscheinlichkeit: Sei ๐ต1 , … , ๐ต๐ ∈ โฑ eine Zerlegung von Ω, d.h. Ω = ๐ต1 ∪ … ∪ ๐ต๐ mit ๐[๐ต๐ ] > 0 ∀๐ ∈ {1, … , ๐}. Dann gilt für ein Ereignis ๐ด ∈ โฑ: ๐ ๐[๐ด] = ∑ ๐[๐ด|๐ต๐ ] ⋅ ๐[๐ต๐ ] „Dichte am Ort k“ ๐[๐ ≤ ๐ฅ] ๐[๐ ≤ ๐ฅ ∩ ๐ ≤ ๐ฆ] VERTEILUNG EINE R ZUF AL LSVARIABLEN Verteilungsfunktion: Sei ๐ eine Zufallsvariable auf (Ω, โฑ, ๐). Die Verteilungsfunktion von ๐ ist die Funktion ๐น๐ (๐ฅ): โ → [0,1] definiert durch: ๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ], ๐∈โ Eigenschaften von Verteilungsfunktionen: Für die Verteilungsfunktion ๐น๐ der Zufallsvariablen ๐ gilt: ๏ง ๐น๐ ist monoton wachsend auf โ mit Werten in [0,1] ๏ง lim ๐น๐ (๐) = 0 und lim ๐น๐ (๐) = 1 ๐→−∞ Inklusion/Exklusion Stetig ๐→+∞ Regeln: ๐[๐ ≤ ๐ฅ] = ๐น๐ (๐ฅ) = lim+ ๐น๐ (๐ฅ + โ) โ→0 ๐[๐ < ๐ฅ] = ๐น๐ (๐ฅ − ) = lim+ ๐น๐ (๐ฅ − โ) โ→0 ๐[๐ = ๐ฅ] = ๐น๐ (๐ฅ) − ๐น๐ (๐ฅ − ) ๐[๐ > ๐ฅ] = 1 − ๐น๐ (๐ฅ) ๐[๐ ≥ ๐ฅ] = 1 − ๐น๐ (๐ฅ − ) ๐[๐ ≤ ๐ ≤ ๐] = ๐[๐ ∈ [๐, ๐]] = ๐น๐ (๐) − ๐น๐ (๐− ) ๐[๐ < ๐ ≤ ๐] = ๐น๐ (๐) − ๐น๐ (๐) ๐[๐ ≤ ๐ < ๐] = ๐น๐ (๐− ) − ๐น๐ (๐− ) ๐[๐ < ๐ < ๐] = ๐น๐ (๐− ) − ๐น๐ (๐) ๐=1 Zuletzt gespeichert: 04.08.2017 05:54, Version 37 2/8 Wahrscheinlichkeitstheorie und Statistik Stefan Rickli Stetige Verteilung: Eine stetige Verteilung ist dadurch charakterisiert, dass die Verteilungsfunktion ๐น๐ (๐ฅ): โ → [0,1] überall stetig ist. Es gilt dabei ๐[๐ = ๐ฅ] = 0 (Die Eintretensw’keit eines exakten Werts ist gleich Null). Existiert eine nicht-negative Funktion ๐๐ (๐ฅ) auf โ, so dass: ๐ฅ ๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ] = ∫ ๐๐ (๐ฅ ′ ) ⋅ ๐๐ฅ ′ , ERWARTUNGSWERT Sei ๐: โ → โ eine Zufallsvariable (ZV) auf (Ω, โฑ, ๐). Es sei ๐ = ๐(๐). Ist ๐ genügend schön, so ist auch ๐ eine ZV. Ist ๐ streng monoton steigend und stetig, so existiert ๐−1 und wir erhalten die Verteilungsfunktion von ๐: stetige Zufallsvariablen: ๐∈โ ๐น๐ (๐ฆ) = ๐[๐ ≤ ๐ฆ] = ๐[๐(๐) ≤ ๐ฆ] = ๐[๐ ≤ ๐−1(๐ฆ)] = ๐น๐ (๐−1(๐ฆ)) Also z.B. für ๐ = ๐๐ gilt: ๐ ๐๐ (๐ฅ) = ๐น (๐ฅ) ๐๐ฅ ๐ (∗) Die Dichtefunktion ist durch die Ableitung der Verteilungsfunktion gegeben. (Nützlich für Berechnungen) ∞ ∫−∞ ๐๐ (๐ฅ ′ ) ⋅ ๐๐ฅ ′ = 1 ๐น๐ (๐ฆ) = ๐[๐ ≤ ๐ฆ] = ๐[๐๐ ≤ ๐ฆ] = ๐[๐ ≤ ๐ฆ 1⁄๐ ] (*) Grenzen anpassen! Die Dichte(-funktion) lässt sich auf zwei Arten bestimmen: ๐ 1) ๐๐ (๐ฆ) = ๐น๐ (๐ฆ) ๐๐ (๐ฆ) = ๐๐ (๐ 2) Besitzt ๐ eine Dichtefunktion ๐๐ (⇔ ๐น๐ stetig und stückw. diff’bar), so gilt: −1 (๐ฆ)) โ ๐ Habe X die Dichte ๐๐ (๐ฅ) = {(1+๐ฅ)4 0, ๐ 1 ๐ฅ≤0 Diskrete Verteilung: Die Verteilungsfunktion einer diskreten Zufallsvariablen ๐ lässt sich mittels der W’keitsfunktion ๐[๐ = ๐ฅ๐ ] = ๐๐ (๐ฅ๐ ) ∀๐ bestimmen: ๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ] = ∑ ๐[๐ = ๐ฅ๐ ] = ∑ ๐๐ (๐ฅ๐ ) = ∑ ๐๐ฅ๐ Was ist die Dichte von ๐ −2 ? 1) Wert von c bestimmen: Normalisierungsbedingung ⇒ ๐=3 2) Berechne Verteilungsfunktion von X ๐ฅ 1 ๐น๐ (๐ฅ) = ∫ ๐(๐ฅ ′ ) ⋅ ๐๐ฅ ′ = (1 − ) ⋅ ๐{๐ฅ>0} (1 + ๐ฅ)3 ∞ 3) Berechne Verteilungsfunktion der Funktion von X, 1 hier also ๐ −2 ๐ฅ๐ ≤๐ฅ wobei die ๐ฅ๐ die möglichen diskreten Elementarereignisse sind. ๐น ๐ 1 − 1 2 (∗) (๐ฅ) = ๐ [๐ −2 ≤ ๐ฅ] = 1 − ๐ [๐ ≤ Dabei gelten folgende Eigenschaften: ๏ง ∑∞ ๐=1 ๐[๐ = ๐ฅ๐ ] = 1 (Normierung) ๏ง Für ๐, ๐ ∈ โ, ๐ ≤ ๐ gilt: ๐[{๐ < ๐ ≤ ๐}] = ๐น๐ (๐) − ๐น๐ (๐) = 1 − ๐น๐ ( 4) Mischformen: Stetige und Diskrete Verteilungen sind nicht komplementär. Es gibt auch Verteilungen, die Elemente beider Typen enthalten und damit stückweise stetig sind. (∗) ๐ [ 1 )= ๐ฅ2 1 (1 + 1 −2 Dichte von ๐ ist ๐ ๐ ๐น 1 (๐ฅ) = ๐๐ฅ ๐ −2 ๐๐ฅ 1 3 (1 + 1 ) ๐ฅ2 = 1 3 ) ๐ฅ2 1 ] ๐ฅ2 ⋅ ๐{๐ฅ>0} 6 4 ๐ฅ 3 (1 + 1 ) ๐ฅ2 ⋅ ๐{๐ฅ>0} 1 1 1 ≤ ๐] = ๐ [ ≤ ๐2 ] = ๐ [๐ ≥ 2 ] = 1 − ๐ [๐ ≤ 2 ] ๐ ๐ ๐ √๐ฅ falls 1 1 1 1 1 ๐ธ[๐] = ๐ธ [ ] = ∑ ๐[๐ = ๐] = (1 + + โฏ + ) ⋅ ๐ ๐ 2 6 6 ๐=1 Für zwei unabhängige Zufallsvariablen ๐ und ๐ und zwei Funktionen ๐(๐) ung ๐(๐) gilt: โ ๐๐ (๐ฅ)๐๐ฅ < ∞ ๐ธ[๐(๐) โ ๐(๐)] = ๐ธ[๐(๐)] โ ๐ธ[๐(๐)] diskrete Zufallsvariablen: ๐ = ๐ธ[๐] = ∑ ๐ฅ๐ ๐[๐ = ๐ฅ๐ ] = ∑ ๐ฅ๐๐ (๐ฅ) ๐ ๐ฅ∈๐ธ๐ Achtung! Im Allgemeinen gilt ๐ธ[๐(๐)] ≠ ๐(๐ธ[๐]) „summiere über alle möglichen Werte, die X annehmen kann und gewichte mit deren Auftretenswahrscheinlichkeiten“ VARIANZ, STANDARDABWEICHUNG Satz des totalen Erwartungswerts: Sei Ω = ๐ด1 ∪ ๐ด2 ∪ … ∪ ๐ด๐ mit ๐ด๐ ∩ ๐ด๐ = ∅∀๐ ≠ ๐ eine Zerlegung des Grundraumes, sowie ๐ eine Zufallsvar. Dann: ๐ ๐ธ[๐] = ∑ ๐[๐ด๐ ] โ ๐ธ[๐|๐ด๐ ] ๐=1 Linearität des Erwartungswerts: Sei ๐ = ๐ โ ๐ + ๐ ⋅ ๐, so gilt: ๐ธ[๐] = ๐ธ[๐ โ ๐ + ๐ ⋅ ๐] = ๐ โ ๐ธ[๐] + ๐ ⋅ ๐ธ[๐] ERWARTUNGSWERT EINER FUNKTION EINER Z.V. Sofern ๐๐ quadratisch integrierbar ist, definiert man die Varianz ๐ 2 = var[๐] und Standardabweichung ๐ = √var[๐]: stetige Zufallsvariablen: ∞ ๐ 2 = var[๐] = ∫−∞(๐ฅ − ๐)2๐๐ (๐ฅ) ⋅ ๐๐ฅ = ๐ธ[(๐ − ๐ธ[๐])2] = ๐ธ[๐2 ] − ๐ธ[๐]2 diskrete Zufallsvariablen: ๐ 2 = var[๐] = ∑๐ (๐ฅ๐ − ๐)2 ๐[๐ = ๐ฅ๐ ] = ๐ธ[(๐ − ๐ธ[๐])2] = ๐ธ[๐2 ] − ๐ธ[๐]2 EIGENSCHAFTEN VARIANZ Symmetrie der Varianz: var[๐] = var[−๐] Linearkombination von Z.V. var(๐ + ๐) = var(๐) + var(๐) + 2 cov(๐, ๐) Sei ๐ eine ZV und ๐ = ๐(๐). Der Erwartungswert ๐ธ[๐] ist ๏ง wenn ๐ eine stetige ZV: ∞ ๐ธ[๐] = ๐ธ[๐(๐)] = ∫ ๐(๐ฅ) โ ๐๐ (๐ฅ) ⋅ ๐๐ฅ −∞ 1 BSP MIN/MAX 1 ๐ −∞ ๐ฅ>0 1 = ๐[๐ < ๐ ≤ ๐] = ๐[๐ ≤ ๐ < ๐] Zuletzt gespeichert: 04.08.2017 05:54, Version 37 ๐ = ๐ธ[๐] = ∫ ๐ฅ โ ๐๐ (๐ฅ) ⋅ ๐๐ฅ ∞ ∫−∞|๐ฅ| Seien die Zufallsvariablen ๐ und ๐ unabhängig, so gilt: ๐ธ[๐ โ ๐] = ๐ธ[๐] โ ๐ธ[๐] , ๐โ 6 ⇒ ∞ EIGENSCHAFTEN ERWARTUNGSWERT |๐ ′ (๐−1 (๐ฆ))| BSP DICHTE BESTIMMEN ๐ ∫ ๐๐ (๐ฅ)๐๐ฅ = ๐[๐ < ๐ < ๐] = ๐[๐ ≤ ๐ ≤ ๐] ๐ฅ๐ ≤๐ฅ ๐ ∈ {1,2,3,4,5,6}, ๐๐ฆ Normierung. ๐ฅ๐ ≤๐ฅ Bsp: X=Augenzahl beim Wurf eines Würfels TRANSFORMATION EINER STETIGEN ZV −∞ so heisst ๐๐ die Dichtefunkt. von ๐. Es muss gelten: http://blogs.ethz.ch/ricklis ๏ง wenn ๐ eine diskrete ZV: ๐ธ[๐] = ๐ธ[๐(๐)] = ∑ ๐(๐ฅ๐ ) โ ๐[๐ = ๐ฅ๐ ] ๐ Geg.: ๐1 , ๐2 ZV, unabh. ๐ = min(๐1 , ๐2 ) , ๐ = max(๐1 , ๐2 ) Ges.: Verteilungsfunktion Für den stetigen wie auch diskreten Erwartungswert muss absolute Konvergenz des Integrals / der Summe gelten. Vorgehen: 1) Definiere ๐ฆ ∈ โ > 0 und ๐ง ∈ โ > 0 ๐[๐ > ๐ฆ] = ๐[min(๐1 , ๐2 ) > ๐ฆ] 2) = ๐[๐1 > ๐ฆ ∩ ๐2 > ๐ฆ] = โฏ ๐[๐ > ๐ง] = ๐[max(๐1 , ๐2 ) ≤ ๐ง] 3) = ๐[๐1 ≤ ๐ง ∩ ๐2 ≤ ๐ง] = โฏ „summiere alle mögl. Werte von X auf und gewichte den Wert von g mit der Auftretenswahrscheinlichkeit von X an jenen Stellen“ 3/8 Wahrscheinlichkeitstheorie und Statistik Stefan Rickli http://blogs.ethz.ch/ricklis ZWEIDIMENSIONALE VER TEILUNGEN Def: Verteilung von zwei Zufallsvariablen ๐ und ๐ ๐น๐,๐ (๐ฅ, ๐ฆ) = ๐[๐ ≤ ๐ฅ, ๐ ≤ ๐ฆ] Dabei gelten folgende Eigenschaften: ๏ง lim ๐น๐,๐ (๐ฅ, ๐ฆ) = lim ๐น๐,๐ (๐ฅ, ๐ฆ) = 0 ๐ฅ→−∞ ๏ง BSP GEMEINSAME VERTE ILU NG (SERIE 6 ) UNABHÄNGIGKEIT BESTE LINEARE PROGNO SE Geg: ๐~ bin(๐1 , ๐) , ๐~ bin(๐2 , ๐) , ๐, ๐ unabh. Also z.B. „gestern ๐1 -mal durchgeführt, heute ๐2 -mal“ Seien ๐, ๐ zwei unabh. ZV und ๐, โ zwei Funktionen, dann gilt: ๐๐,๐ (๐ฅ, ๐ฆ) = ๐๐ (๐ฅ) โ ๐๐ (๐ฆ) ๐น๐,๐ (๐ฅ, ๐ฆ) = ๐น๐ (๐ฅ) โ ๐น๐ (๐ฆ) ๐๐,๐ (๐ฅ, ๐ฆ) = ๐๐ (๐ฅ) โ ๐๐ (๐ฆ) ๐ธ[๐(๐) โ โ(๐)] = ๐ธ[๐(๐)] โ ๐ธ[โ(๐)] Die beste lineare Prognose von ๐ durch ๐ im Sinn der Minimierung des erwarteten Fehlers ๐ธ[(๐ − ๐)2 ] unter allen linearen Transformationen ๐ผ๐ + ๐ฝ ist: cov[๐, ๐] (๐ − ๐ธ[๐]) + ๐ธ[๐] ๐≈๐= var[๐] Abhängigkeit zeigen: konkreten Wert für x und y finden, bei dem Ungleichheit bei einer der obigen Formeln gezeigt werden kann. Anmerkung: dies kommt aus der gewünschten Trafo und der Definition des minimalen Prognosefehlers. Es ginge z.B. auch als gewünschte Transformation ๐ฬ โ ๐๐. Dann ist der minimale 2 Prognosefehler ๐ธ [(๐ − ๐ฬ ) ] = ๐ธ[(๐ − ๐๐)2 ]. ๐ฆ→−∞ lim ๐ฅ→∞, ๐ฆ→∞ ๐น๐,๐ (๐ฅ, ๐ฆ) = 1 Ges: Verteilung von ๐ = ๐ + ๐, also ๐[๐ = ๐] =? ๐1 ๐[๐ + ๐ = ๐] = ∑ ๐[๐ + ๐ = ๐|๐ = ๐]๐[๐ = ๐] STETIGE ZWEIDIMENSIO NALE V ERTEILUNG Gemeinsame Dichte: ๐, ๐ Z.V.: Ω → โ auf (Ω, โฑ, ๐) besitzen eine gemeinsame stetige Verteilung, falls ๐๐,๐ (๐ฅ, ๐ฆ) ≥ 0 auf โ2 existiert, wobei ∞ ∞ ∫−∞ ∫−∞ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ = 1 (Normierungsbedingung). Falls dann gilt ๐[๐ ∈ [๐1, ๐1 ] ∩ ๐ ∈ [๐2 , ๐2 ]] = ๐[๐1 ≤ ๐ ≤ ๐1 ∩ ๐2 ≤ ๐ ≤ ๐2 ] ∞ ∞ (∗) = ∑ ๐[๐ + ๐ = ๐]๐[๐ = ๐] ๐=0 ๐1 = ∑ ๐[๐ = ๐ − ๐]๐[๐ = ๐] = ∫ ∫ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ ๐2 ๐1 wobei −∞ ≤ ๐1 ≤ ๐1 ≤ ∞ und −∞ ≤ ๐2 ≤ ๐2 ≤ ∞, ๐=0 ๐1 ๐ฆ ๐2 ๐ ) ๐๐−๐ (1 − ๐)๐2 −๐+๐ ⋅ ( 1 ) ๐๐ (1 − ๐)๐1 −๐ ๐−๐ ๐ ๐=0 ๐2 ๐ ) ( 1 )) ⋅ ๐๐ (1 − ๐)(๐1 +๐2)−๐ ๐−๐ ๐ ⇒ Minimaler Vorhersagefehler: Für ๐ = ๐ผ๐ + ๐ฝ gilt (?): ๐ธ[(๐ − ๐)2 ] = var[๐] (1 − cor 2 [๐, ๐]) ∞ −∞ −∞ diskrete 2D-Verteilung: ๐[๐ + ๐ = ๐ ∩ ๐ = ๐] ๐[๐ = ๐] ๐[๐ + ๐ = ๐ ∩ ๐ = ๐] = ๐[๐ = ๐] ๐[๐ + ๐ = ๐] ⋅ ๐[๐ = ๐] = ๐[๐ = ๐] = ๐[๐ + ๐ = ๐] ๐[๐ + ๐ = ๐|๐ = ๐] = (∗) Randdichten der gemeinsamen Dichte: ∞ ๐๐ (๐ฅ) = ∫−∞ ๐๐,๐ (๐ฅ, ๐ฆ)๐๐ฆ ∞ ๐๐ (๐ฆ) = ∫−∞ ๐๐,๐ (๐ฅ, ๐ฆ)๐๐ฅ { DISKRETE ZWEIDIMENSI ONALE VERTEILUNG W’keitsfunktion: (normiert!) ๐๐,๐ (๐ฅ, ๐ฆ) = { Bsp Umgang mit einer Funktion einer 2D-Verteilung: ∞ −∞ ∞ ๐ = ๐ + ๐~ bin(๐1 + ๐2 , ๐) −∞ −∞ ∞ ∞ ๐ธ[๐] = ๐ธ[๐(๐, ๐)] = ∫ ∫ ๐(๐ฅ, ๐ฆ) ⋅ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ ๐ฅ ๐[๐ 2 + ๐ ๐ ≤ ๐] = ∫ ∫ ๐{๐ฅ 2 +๐๐ฆ ≤๐} ⋅ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ = โฏ ∞ ๐ธ[๐๐ + ๐๐] = ๐ ∫ ๐๐ (๐ฅ) ⋅ ๐๐ฅ + ๐ ∫ ๐๐ (๐ฆ) ⋅ ๐๐ฆ Funktionen von Z.V. mit gemeinsamer D ichte: Sei ๐ = ๐(๐, ๐) eine ZV, so gilt für deren Erwartungswert: stetige 2D-Verteilung: ๐ + ๐2 ๐ =( 1 ) ๐ (1 − ๐)(๐1 +๐2)−๐ ๐ ๐น๐,๐ (๐ฅ, ๐ฆ) = ∫ ∫ ๐๐,๐ (๐ฅ ′ , ๐ฆ ′ ) ⋅ ๐๐ฅ ′ ๐๐ฆ ′ Randverteilungen: ๐น๐ (๐ฅ) = ๐[๐ ≤ ๐ฅ] = ๐[๐ ≤ ๐ฅ ∩ −∞ ≤ ๐ ≤ ∞] ๐ฅ ∞ = ∫−∞ ∫−∞ ๐(๐ฅ′, ๐ฆ) ⋅ ๐๐ฆ ๐๐ฅ ′ Linearität des Erwartungswerts: −∞ = (∑ ( dann heisst ๐๐,๐ (๐ฅ, ๐ฆ) gemeinsame Dichte von ๐ und ๐. Verteilungsfunktion: ๐(๐) โ (๐ − ๐๐)2 ist eine Parabel ⇒ ableiten und gleich Null setzen, um das Minimum zu finden. 2D-ERWARTUNGSWERT ๐=0 ๐1 = ∑( = ∫ ∫ ๐{๐1 ≤๐ฅ≤๐1 } ⋅ ๐{๐2 ≤๐≤๐2 } ⋅ ๐๐,๐ (๐ฅ, ๐ฆ) ⋅ ๐๐ฅ ๐๐ฆ −∞ −∞ ๐2 ๐1 ๐=0 ๐1 ๐,๐ (Summiere über alle möglichen Werte für X und Y) KOVARIANZ Die Kovarianz beschreibt den Grad der Abhängigkeit zw. 2 ZV. cov(๐, ๐) โ ๐ธ[(๐ − ๐ธ[๐])(๐ − ๐ธ[๐])] = ๐๐,๐ = ๐ธ[๐ โ ๐] − ๐ธ[๐] โ ๐ธ[๐] Eigenschaften der Kovarianz: ๏ง ๐, ๐ unabhängig โน cov(๐, ๐) = 0 ๏ง cov(๐, ๐) = 0 โน ๐, ๐ unkorreliert (nicht zwingend unabh.) ๏ง cov(๐, ๐) = var(๐) ๏ง cov(๐๐ + ๐, c๐ + ๐) = ๐๐ cov(๐, ๐) ๏ง cov(๐ + ๐, ๐) = cov(๐, ๐) + cov(๐, ๐) ๐๐ฅ,๐ฆ , ๐ = ๐ฅ, ๐ = ๐ฆ 0, ๐ ๐๐๐ ๐ก Verteilungsfunktion: ๐น๐,๐ (๐ฅ, ๐ฆ) = ∑ ∑ ๐๐,๐ (๐ฅ, ๐ฆ) −∞ −∞ ๐ธ[๐] = ๐ธ[๐(๐, ๐)] = ∑ ๐(๐ฅ๐ , ๐ฆ๐ ) ⋅ ๐๐,๐ (๐ฅ๐ , ๐ฆ๐ ) ๐ฅ≤๐ ๐ฆ≤๐ W’keitsfunktionen der einzelnen ZV: ๐๐ (๐ฅ) = ∑ ๐๐,๐ (๐ฅ, ๐ฆ) , ๐๐ (๐ฆ) = ∑ ๐๐,๐ (๐ฅ, ๐ฆ) ๐ฆ ๐ฅ KORRELATIONSFAKTOR Randverteilungen: ๐น๐ (๐ฅ) = ∑ ๐๐ (๐ฅ) = ∑ ∑ ๐๐,๐ (๐ฅ, ๐ฆ) ๐ฅ≤๐ ๐ฅ≤๐ ๐ฆ cor(๐, ๐) = ๐(๐, ๐) = ๐๐,๐ cov(๐, ๐) = ∈ [−1,1] ๐๐ โ ๐๐ √var(๐) โ var(๐) Bsp. 2D-Verteilung mit den W’keitsfkt. und Randverteilungen: Y\X 0 1 2 1⁄ 1⁄ 1⁄ ๐๐ (0) = 25⁄36 0 4 3 9 1 2 1⁄ 9 1⁄ 12 ๐๐ (0) = 4⁄9 1⁄ 9 0 0 0 ๐๐ (1) = 8⁄36 ๐๐ (2) = 3⁄36 ๐๐ (1) = 4⁄9 ๐๐ (2) = 1⁄9 ∑ ๐๐,๐ (๐ฅ, ๐ฆ) = 1 ๐ฅ,๐ฆ ๐๐,๐ (0,2) = 1⁄12 Zuletzt gespeichert: 04.08.2017 05:54, Version 37 4/8 Wahrscheinlichkeitstheorie und Statistik Stefan Rickli http://blogs.ethz.ch/ricklis STATISTIK BEISPIEL FÜR CHI -QUADRAT -TEST ๐ 2 ANPASSUNGSTEST Geg: n unabhängige Beobachtungen ๐ฅ1 , … , ๐ฅ๐ Z.B. während n Tagen Anzahl Autos über Brücke gezählt Frage: stammen die ๐ฅ1, … , ๐ฅ๐ von einer bestimmten Zufallsvariable X? Z.B. ๐~pois(4) Beobachtungen fallen in m Klassen. Z.B. 0 ≤ ๐ ≤ 10, 11 ≤ ๐ ≤ 20, ๐ > 20 Wir betrachten Geburtstage ๐ฅ1 , … , ๐ฅ2736 von NHL-Spielern. Quartal 1 2 3 4 Anzahl ๐1 ๐2 ๐3 ๐4 = 985 = 820 = 535 = 396 1 ๐ ≈ ๐3 ~๐32. 4 Definiere Grössen: ๐๐ : Wahrscheinlichkeit dafür, dass Klasse ๐ eintritt: ๐1 = ๐[0 ≤ ๐ ≤ 10] ๐2 = ๐[11 ≤ ๐ ≤ 20] ๐3 = ๐[๐ > 20] 4 ๐ก=∑ (๐๐ − ๐๐๐ )2 ๐=1 (๐๐ −๐๐๐ )2 ๐๐๐ , ungefähr ๐ 2-verteilt mit (๐ − 1) Freiheitsgraden. 2 Das heisst ๐[๐ ≤ ๐] ≈ ๐[๐๐−1 ≤ ๐] für ๐๐−1~๐๐−1 ๐๐ : Anzahl der ๐ฅ1 , … , ๐ฅ๐ , welche in die Klasse ๐ fallen (≈ ๐ ⋅ ๐๐ , aber real gemessen) Wähle nun ein ๐ ∈ โ mit ๐[๐๐−1 ≤ ๐] = 99% respektive ๐[๐๐−1 > ๐] = 0.01. Berechne ๐ก โ (๐๐ −๐๐๐ ) ∑๐ ๐=1 ๐๐ ๐ Falls nun ๐ก > ๐ ⇒ ๐ฅ1 , … , ๐ฅ๐ stammen mit hoher Wahrscheinlichkeit nicht von X ๐ก ≤ ๐ ⇒ ๐ฅ1 , … , ๐ฅ๐ könnten von X stammen ๐๐๐ = (985 − 684)2 684 (820 − 684)2 a Gerettete 70 30 100 160 70 230 Allgemeines Raster: 684 Die Hypothese, dass die Geburtstage gleichmässig verteilt sind, muss verworfen werden. ๐1 ๐พ1 ๐พ2 … ๐พ๐ ๐11 ๐12 … ๐1๐ ๐1๐ = ∑๐๐=1 ๐1๐ โฎ โฎ โฎ โฑ โฎ โฎ ๐๐ ๐๐1 ๐๐2 … ๐๐๐ ๐๐๐ = ∑๐๐=1 ๐๐๐ ๐๐1 = ∑๐ ๐=1 ๐๐1 … ๐๐๐ = ∑๐ ๐=1 ๐๐๐ ๐ = ∑๐,๐ ๐๐๐ BEISPIEL FÜR CHI -QUADRAT -TEST Geg: Dorf mit ๐ = 1000 Einwohner Wir verteilen Äpfel an einem Stand an einem Tag. Im Schnitt kommen 100 Personen pro Tag am Stand vorbei. ⇒ Wir modellieren die Anzahl Besucher ๐๐ ~Bin (๐, ๐ = 1 10 ) Gesucht: k minimal mit 0.95 ≤ ๐[๐๐ ≤ ๐] ๐๐ − ๐๐ ๐ − ๐๐ ๐๐ − ๐๐ = ๐[ ≤ ] ~๐(0,1) √๐๐(1 − ๐) √๐๐(1 − ๐) √๐๐(1 − ๐) ๐ − ๐๐ ๐ − 100 3.1.11 ≈ Φ( ) = Φ( ) √90 √๐๐(1 − ๐) 0.95 ⇒ 1.65 ≤ t + (535 − 684)2 (396 − 684)2 + + 684 684 = 313.2 โซ 7.815 = ๐ k ist dann minimal mit 0.95 ≤ Φ ( 1% Opfer 90 40 130 Männer Frauen Frage: Wie viele Äpfel sollen bestellt werden, damit mit 95% Wahrscheinlichkeit alle Besucher einen Apfel kriegen? 2 ๐ป0 Wähle a mit ๐[๐3 > ๐] = 5%. Tabelle: ๐ = 7.815 ๐๐ : Anzahl Beobachtungen von n Versuchen, welche in Klasse i fallen (dies ist eine Z.V.!) ๐ธ[๐๐ ] = ๐ ⋅ ๐๐ ⇒ ๐ โ ∑๐ ๐=1 Frage: sind zwei Merkmale โ K&M unabhängig ? Bsp: Spielt das Geschlecht beim Überleben eines Schiffsunglücks eine Rolle? Frage: sind die Geburtstage gleichmässig auf die Quartale verteilt? Betrachte das 5%-Niveau. ๐ = 4 Klassen, ๐๐ = , ๐ = 1,2,3,4 ๐ 2 -UNABHÄNGIGKEITSTEST ZUM NIVEAU ๐ผ (=5%) ๐−100 √90 ๐−100 √90 ๐๐,⋅ ๐⋅,๐ ∗ Sei ๐๐๐ โ der Erwartungswert des Merkmals jk, falls es ๐ wirklich unabhängig wäre. ๐ Sei ๐ก โ ∑๐ ๐=1 ∑๐=1 Was ist die Wahrscheinlichkeit, dass 91 Äpfel gerade zu viel sind? 90 − 100 10 ⇒ ๐[๐๐ ≤ 90] ≈ Φ ( ) = Φ (− ) √90 √90 10 = 1 −Φ( ) ≈ 1 − Φ(1.05) โ √90 0.8531 ≈ 0.15 ฬณฬณฬณฬณฬณฬณ 2 ∗ ๐๐๐ die Abweichung vom erwarteten Wert. Wir verwerfen die Nullhypothese ๐ป0 , falls ๐ก > ๐, wobei a so gewählt ist, dass ๐[๐ ≤ ๐] = 1 − ๐ผ (z.B. 95%). Y ist ๐ 2-verteilt mit (๐ − 1)(๐ − 1) Freiheitsgraden. Im Beispiel: ๐ ๐ 160⋅130 ∗ ๐11 = 1⋅ ⋅1 = = 90.4 ist die erwartete Anzahl ๐ 230 männlicher Opfer ๐ ๐ 160⋅100 ∗ ๐12 = 1⋅ ⋅2 = = 69.6: erwartete Anzahl geretteter ๐ 230 Männer ∗ ∗ ๐21 = 39.6, ๐22 = 30.4 ) ⇒ Tabelle: Φ(1.65) = ⇔ ฬณฬณฬณฬณฬณฬณฬณฬณฬณฬณฬณ ๐ = 116 ∗ (๐๐๐ −๐๐๐ ) ๐ก= ∗ )2 (๐11 − ๐11 ∗ ๐11 + ∗ )2 (๐12 − ๐12 ∗ ๐12 + โฏ = 0.016 Die Quadratur hat die Funktion, dass auch negative Abweichungen sich positiv auf den Index t auswirken. Danach wird mit dem theoretischen Erwartungswert skaliert. Sei Y ๐ 2-verteilt mit 1 = (2 − 1)(2 − 1) Freiheitsgraden. Dann gilt ๐[๐ ≤ ๐] = 1 − 0.05 = 0.95 ⇔ ๐ = 3.841 Weil ๐ก > ๐ ist, können wir ๐ป0 auf dem Niveau ๐ผ = 5% nicht verwerfen. Zuletzt gespeichert: 04.08.2017 05:54, Version 37 5/8 Wahrscheinlichkeitstheorie und Statistik Stefan Rickli http://blogs.ethz.ch/ricklis TESTEN VON HYPOTHESE N ZUM NIVEAU Α SCHÄTZEN VON PARAMET ERN Geg: Beobachtungen ๐ฅ1, … , ๐ฅ๐ Annahme: Die Beobachtungen stammen von ๐๐ ~๐(๐, ๐ = 6) und sind unabhängig. Wir glauben, dass ๐ = ๐1 (Alternative ๐ป1) Die Gegenpartei glaubt, dass ๐ = ๐0 (Nullhypothese ๐ป0 , welche wir verwerfen wollen) Setze nun ๐ = ๐0 . Betrachte die Zufallsvariable ๐0 = ∑๐ ๐=1 ๐๐ ∑๐ ๐=1 ๐ฅ๐ ๐ ~๐ (๐0, ๐ √๐ Ziel: Schätzung von ๐ anhand von ๐ฅ1 , … , ๐ฅ๐ mit Hilfe des Maximum-Likelihood-Schätzers ) Sei nun ๐ก = der Durchschnitt der Messungen (quasi der ๐ beobachtete Erwartungswert). Wir verwerfen ๐ป0 , falls ๐ก < ๐, wobei ๐[๐0 ≤ ๐] = Φ ( ๐−๐0 ๐ √๐ 0.5 √4 ๐ ๐ฟ(๐, ๐ฅ1, … , ๐ฅ๐ ) = ∏ ๐[๐ = ๐ฅ๐ ] Die Gemeinsame Dichte von (๐1 , … , ๐๐ ) an der Stelle (๐ฅ1 , … , ๐ฅ๐ ) ist ๐(๐; ๐ฅ1 , … , ๐ฅ๐ ) = ∏๐๐=1 ๐๐ (๐ฅ๐ ) =: ๐ฟ(๐, ๐ฅ1 , … , ๐ฅ๐ ) (Likelihood-Funktion) Beispiel für MLE im diskreten Fall: Geg: Sei ๐~pois(๐), ๐ > 0. Seien ๐ฅ1, … , ๐ฅ๐ unabhängige Beobachtungen von X. Def: Der Maximum-Likelihood-Schätzer ๐ฬ ist jenes ๐, welches die Likelihood-Funktion maximiert. Bemerkung: ๐ฟ(๐, ๐ฅ1 , … , ๐ฅ๐ ) maximal ⇔ ln(๐ฟ(๐, ๐ฅ1, … , ๐ฅ๐ )) maximal ⇒ ๐0 = 3 Behauptung des Verkäufers, ๐1 = 2 meine Vermutung / Beobachtung Die Likelihood-Funktion ist nun Danach analog zum kontinuierlichen Fall. ๐ฅ1 , … , ๐ฅ๐ sind unabhängige Beobachtungen. Wir wollen ๐ so wählen, dass die Wahrscheinlichkeit maximal ist, den beobachteten Ausgang des Experiments auch mit Hilfe der Zufallsvariablen X zu erhalten. Ein Verkäufer bietet Säcke mit Kartoffeln à 3kg (mit ๐ = 0.5) an. Wir kaufen 4 Säcke (=n) und stellen aber einen Durchschnitt von lediglich 2kg (=t) fest. Sei X eine diskrete Z.V., seien ๐ฅ1 , … , ๐ฅ๐ unabhängige Beobachtungen von X. Idee: ๐ฅ1, … , ๐ฅ๐ stammen von ๐1 , … , ๐๐ unabhängig, wobei die ๐๐ die gleiche Verteilung wie X haben. )=๐ผ ⇔ ๐=โฏ BEISPIEL: VERKAUF VO N SÄCKEN MIT KARTOFFELN ๐0~๐ (3, Zufallsvariable X mit Dichte ๐๐ (๐ฅ) (= ๐๐ −๐๐ฅ , ๐ฅ > 0) ๐ฅ1, … , ๐ฅ๐ unabhängige Beobachtungen von X Geg: DISKRETER FALL: 1 ) = ๐ (3, ) 4 ๐=1 Was ist der MLE von ๐? 1) 2) ln(๐ฟ) = −๐๐ + ∑๐๐=1 = −๐๐ + ๐ ∑๐๐=1 ๐ฅ๐ ๐ฅ๐ ! ๐ = ๐ −๐๐ ∏๐๐=1 ๐ ๐ฅ๐ ๐ฅ๐ ! ๐ฅ๐ ln ( ) โ ๐ฅ๐ ! ln(๐ โ 3) ๐ ๐ฅ๐ ๐ฟ(๐, ๐ฅ1, … , ๐ฅ๐ ) = ∏๐๐=1 ๐ −๐ ๐ฅ๐ ) −ln(๐ฅ๐ !) ๐ฅ๐ ln ๐ ln ๐ − 1 ∑๐๐=1 ln(๐ฅ๐ !) ! ๐๐ (ln(๐ฟ)) = −๐ + ⋅ ∑๐๐=1 ๐ฅ๐ = 0 ⇔ ∑ ๐ฅ ๐ฬ = ๐=1 ๐ ist der MLE von ๐. ๐ ๐ ๐ KONTINUIERLICHER FAL L: Für ๐ผ = 5% brauchen wir bei einer Tabelle, welche die Fläche links des gesuchten Werts angibt, die Formel 1 − 0.05 = 0.95 und suchen einen Wert, der möglichst nahe daran liegt, in der Tabelle. Der entsprechende Eintrag ist 1.65. Da wir an einer Abweichung links des Nullpunkts interessiert sind, benützen wir −1.65. Beispiel: 2 −๐๐ฅ , ๐ฅ > 0 ,๐ > 0 Die Z.V. X habe die Dichte ๐๐ (๐ฅ) = { ๐ ๐ฅ๐ 0, ๐ฅ≤0 Seien ๐ฅ1 , … , ๐ฅ๐ unabhängige Beobachtungen von X. Was ist der MLE für ๐? ๐−3 −1.65 = ⇔ ๐ = 2.5875 kg 0.5 √4 1) Aussage: „Die Wahrscheinlichkeit, bei einer Normalverteilung mit Zentrum 3kg und Standardabweichung 0.5kg, bei einer Stichprobe von 4 Stück einen Durchschnitt von unter 2.5875kg zu erwischen, ist tiefer als 5%.“ L aufstellen ๐ฟ(๐, ๐ฅ1 , … , ๐ฅ๐ ) = ∏๐๐=1 ๐๐ (๐ฅ๐ ) bestimmen ๐ = ๐ 2๐ (∏๐๐=1 ๐ฅ๐ ) ⋅ ๐ −๐ ∑๐=1 ๐ฅ๐ 2) logarithmieren ln(๐ฟ(๐, ๐ฅ1, … , ๐ฅ๐ )) = โ ln(๐ 2๐ ) + ln(∏๐๐=1 ๐ฅ๐ ) + ๐ ∑๐๐=1 ๐ฅ๐ 2๐⋅ln ๐ 3) 95% ableiten und gleich Null setzen ๐ ๐๐ 5% −1.65 0 1.65 Zuletzt gespeichert: 04.08.2017 05:54, Version 37 ⇔ 5% t a (ln(๐ฟ)) = 2๐ ๐ ! − ∑๐๐=1 ๐ฅ๐ = 0 2๐ ๐ฬ = ∑๐ ist der ML-Schätzer von ๐ ๐=1 ๐ฅ๐ ๐0 = 3kg 6/8 Wahrscheinlichkeitstheorie und Statistik Stefan Rickli http://blogs.ethz.ch/ricklis MATHEMATISCHER ANHANG Indikatorfunktion: 1, ๐ฅ > 0 ๐{๐ฅ>0} = { 0 sonst KOMPLEXE ZAHLEN 1 (๐ง + ๐ง ∗) 2 1 Im{๐ง} = (๐ง − ๐ง ∗ ) 2๐ Re{๐ง} = EULER’SCHE IDENTITÄT EN 1 ๐๐ฅ (๐ − ๐ −๐๐ฅ ) 2๐ 1 ๐ฅ sinh ๐ฅ = (๐ − ๐ −๐ฅ ) 2 sin ๐ฅ = 1 ๐๐ฅ (๐ + ๐ −๐๐ฅ ) 2 1 ๐ฅ cosh ๐ฅ = (๐ + ๐ −๐ฅ ) 2 cos ๐ฅ = TRIGONOMETRISCHE IDE NTITÄTEN sin2 ๐ฅ + cos 2 ๐ฅ = cosh2 ๐ฅ − sinh2 ๐ฅ = 1 cosh ๐ฅ + sinh ๐ฅ = ๐ ๐ฅ sin(๐๐ฅ) = ๐ sinh ๐ฅ ⇔ sinh(๐๐ฅ) = ๐ sin ๐ฅ cos(๐๐ฅ) = cosh ๐ฅ ⇔ cosh(๐๐ฅ) = cos ๐ฅ sin ๐ฅ tan ๐ฅ = cos ๐ฅ 1 cot ๐ฅ = tan ๐ฅ sin(๐ฅ ± ๐ฆ) = sin ๐ฅ cos ๐ฆ ± cos ๐ฅ sin ๐ฆ cos(๐ฅ ± ๐ฆ) = cos ๐ฅ cos ๐ฆ โ sin ๐ฅ sin ๐ฆ 2 sin ๐ฅ sin ๐ฆ = cos(๐ฅ − ๐ฆ) − cos(๐ฅ + ๐ฆ) 2 cos ๐ฅ cos ๐ฆ = cos(๐ฅ − ๐ฆ) + cos(๐ฅ + ๐ฆ) 2 sin ๐ฅ cos ๐ฆ = sin(๐ฅ − ๐ฆ) + sin(๐ฅ + ๐ฆ) 2 tan ๐ฅ sin(2๐ฅ) = 2 sin ๐ฅ cos ๐ฅ = 2 1+tan ๐ฅ cos(2๐ฅ) = cos 2 ๐ฅ − sin2 ๐ฅ = 1 − 2 sin2 ๐ฅ = 2 cos 2 ๐ฅ − 1 1 sin2 ๐ฅ = (1 − cos(2๐ฅ)) 2 1 cos 2 ๐ฅ = (1 + cos(2๐ฅ)) 2 sin(arccos ๐ฅ) = cos(arcsin ๐ฅ) = √1 − ๐ฅ 2 Für Copy-Paste: ๐ https://en.wikipedia.org/wiki/Blackboard_bold mit Firefox Copy&Paste Zuletzt gespeichert: 04.08.2017 05:54, Version 37 7/8 Wahrscheinlichkeitstheorie und Statistik Stefan Rickli 1 Bemerkungen (V3.1) 2 Ressourcen zu „Word und Formeleditor“ Disclaimer Meine Formelsammlungen entstehen und wachsen meist über eine längere Zeit. Es besteht immer ein gewisses Risiko, dass sich einige Fehler über zig Iterationen versteckt gehalten haben. Ich freue mich deshalb über jegliche (Fehler-) Verbesserungen, Anmerkungen, Lob, Dank oder auch Kritik. Meine Zusammenfassungen werden fortlaufend korrigiert und aktualisiert veröffentlicht. Weiterverarbeitung: Weil ich es nicht ausstehen kann, dass ständig das Rad neu erfunden werden muss, habe ich das Originaldokument mit veröffentlicht mit der Einladung, sich hier für die eigene Formelsammlung zu bedienen. Ihr könnt diese Zusammenfassung also gerne weiterverarbeiten und / oder auch in überarbeiteter Form veröffentlichen. Haltet jedoch die Herkunft der kopierten/übernommenen Teile so gut wie möglich nachvollziehbar, falls ihr weiter veröffentlicht. Obiges gilt auch für alle anderen Formelsammlungen von mir, welche diesen Bemerkungstext (noch) nicht enthalten. Quellenangaben: Aus Platz- und Zeitgründen (blame the 'Prüfungsstress') fehlen natürlich praktisch jegliche Quellenangaben (worüber ich auch schon ab und zu fluchen musste). Ich versuche jedoch in diesem Abschnitt die Arbeiten zu referenzieren, von denen ich wissentlich kopiert habe: Wesentliche Bestandteile: Grundform Zusammenfassung ‘Wahrscheinlichkeitstheorie und Statistik’ von Lukas Cavigelli, Juli 2011 Ergänzungen Zusammenfassung ‘Probability Theory and Statistics’ von Raphael Keusch, Juli 2013 Beispiele Übungsserien FS15 Revisionsverlauf: 1.0 Sept 2015 1.1 11.07.2016 erste Veröffentlichung Bemerkungsseite aktualisiert Fehlerkorrektur: Text zu bedingter Wahrscheinlichkeit, Tabelle mit 2D-Verteilung Dank an Evan für die Hinweise! To Do: ๏ท Zuletzt gespeichert: 04.08.2017 05:54, Version 37 http://blogs.ethz.ch/ricklis Stefan Rickli Stefan Rickli Es gibt ein paar Ressourcen, welche mir sehr geholfen haben, den Formeleditor in Word zu meistern: Microsoft Word formula editor: https://support.office.com/en-us/article/Linear-format-equations-and-MathAutoCorrect-in-Word-2e00618d-b1fd-49d8-8cb4-8d17f25754f8?ui=en-US&rs=en-US&ad=US Unicode Nearly Plain-Text Encoding of Mathematics: http://www.unicode.org/notes/tn28/ o das ist der Standard, an den sich der Editor (fast vollständig) hält. Ist sehr gut beschrieben und dokumentiert. Ausnahme sind Umrahmungen, welche nicht die ganze Funktionalität erhalten haben. Die Zeichenübersicht des Editors selber: wenn man mit der Maus über ein Zeichen fährt, zeigt es einem den TastaturShortcut an, den man eingeben kann Nice to know: Alt + Shift + 0 erstellt eine neue Formel (durch einen Bug in Office 2016 muss dieser Shortcut neu manuell definiert werden, Stand Mai 2016) der Leerschlag ist euer Freund! Er veranlasst den Formeleditor, die Syntax bis zum aktuellen Punkt zu überprüfen und das Zeug fixfertig bis zu dem Punkt, wo ihr seid, darzustellen (ausser es gibt noch offene Klammern). o verhält sich der Editor mal komisch, liegt es zu 95% daran, dass etwas in der Syntax nicht stimmt. Hier hilft ab und an mal, sich die Formel im linearen Modus anzuschauen, wo alles bis auf Sonderzeichen wieder auseinander genommen wird. Das einzige, mit dem der Editor Mühe hat, sind grosse Eq-Arrays und mehrzeiliges Zeug. Wenn die Formel auf einer eigenen Zeile steht, veranlasst ein Leerschlag ausserhalb nach der Formel (also AUSSERHALB des Formeleditorfelds) den Editor, die Formel im Inline-Modus darzustellen (Formel braucht weniger Platz) o siehe Tabellen in dieser ZF, dort habe ich das konsequent benutzt. Löscht mal das Leerzeichen nach einer Formel, das ein Integral enthält ๏ benutzt die Backslash (\) Befehle! Wenn man sich die beiden Dokumente oben ausdruckt und zur Referenz hält, geht es nicht lange, bis man alles mit der Tastatur machen kann und nie absetzen muss, um was mit der Maus zu machen \ensp und \emsp können helfen, um grössere, gewollte Abstände zu realisieren \\eqarray ordnet mit jedem & einmal links und dann wieder rechts an bastelt euch eure eigenen Shortcuts o zum Beispiel ๏ง \La für ⇐ ๏ง \Ra für ⇒ ๏ง \Lra für ⇔ ๏ง oder \to für ein → ๏ง oder eine leere 4x4 Matrix als \4x4 mit (โ (&&&@&&&@&&&@&&&)) und einem Leerschlag am Ende (damit der Ausdruck gleich aufgebaut wird) ๏ง etc o dazu einfach das entsprechende Zeichen in die Zwischenablage kopieren und im Formeleditor unter „Formeloptionen“ (in den Tools als kleiner Pfeil unten rechts zu finden) und „Math. Autokorrektur“ einfügen und den entsprechenden Backslashbefehl definieren o manchmal ist es sinnvoll, noch eigene Funktionsnamen zu definieren, welche der Editor erkennen soll, wenn man sie häufig benutzt. Z.B. Imag() ๏ง ansonsten Leerschlag funktionsname\funcapply Leerschlag die mathematische Autokorrektur ist manchmal auch ausserhalb des Formeleditors nützlich. Ich hab das in den Optionen auch aktiviert Wenn Word langsam wird wegen vielen anzuzeigenden Formeln, hilft o 1. die Entwurfsansicht (anstatt Seitenlayout). Wenn man sich damit abfindet, dass dann ab und zu das Layout (noch) nicht dargestellt oder updated wird (nicht beirren lassen), kann man gut die kritischen Abschnitte bearbeiten. Achtung: Bilder werden NICHT angezeigt, sondern einfach mit einem Leerschlag repräsentiert! o 2. reinzoomen, bis weniger Formeln sichtbar sind. 8/8