Biometrie - TU Berlin

Werbung
Biometrie
Pflicht für Studierende im MasterStudium der
Lebensmitteltechnologie
4 SWS VL/ UE am PC
⇒ Abschluss: Klausur
U. Römisch
http:// www.lmtc.tu-berlin.de/angewandte_statistik_und_consulting
LITERATUR zur Lehrveranstaltung
„Biometrie“
/1/ Autorenkollektiv (2004):
Einführung in die Biometrie.
2. Aufl., Saphir- Verl. Ribbesbüttel
/2/ Backhaus, K., Erichson, B., Plinke,W., Weiber,R. (2011)
Multivariate Analysemethoden.
10. Aufl. Springer- Verl Berlin
/2/ Bärlocher, F. (2008):
Biostatistik.
2. Aufl., Thieme Verl. Stuttgart
/3/ Bortz, J., G. A. Lienert u. K. Boehnke (1990):
Verteilungsfreie Methoden in der Biostatistik.
Springer- Verl. Berlin
/4/ Fahrmeir, L., R. Künstler, I. Pigeot u. G. Tutz (2004):
Statistik- Der Weg zur Datenanalyse.
5. Aufl., Springer- Verl. Berlin
/5/ Hartung, J. u. a. (1989):
Statistik. Lehr- und Handbuch der angewandten Statistik.
7. Aufl., Oldenbourg Verl. München
/6/ Klein, Bernd (2007):
Versuchsplanung- DoE. Einführung in die Taguchi/Shainin- Methodik.
2. Aufl. Oldenbourg Verl. München
/7/ Kleppmann, W. (2006):
Taschenbuch Versuchsplanung
4. Auflage Hanser Verl. München
/8/ Rudolf, M. u. W. Kuhlisch (2008)
Biostatistik- Eine Einführung für Biowissenschaftler.
Pearson Studium, München
/9/ Stahel, W. (1999):
Statistische Datenanalyse - Eine Einführung für Naturwissenschaftler.
2. Aufl., Vieweg Verl. Braunschweig/ Wiesbaden
/10/ Timischl, W. (2000)
Biostatistik- Eine Einführung für Biologen und Mediziner.
2. Aufl., Springer Verl. Berlin
Inhaltsverzeichnis
EINLEITUNG
1.
Was versteht man unter Statistik, Biometrie, Chemometrie,
Ökonometrie und Technometrie?
2.
Wie lügt man mit Statistik?
● Umfragen
● Mittelwert- und Streuungsmaße
● Grafiken
● Signifikanzaussagen bei stat. Tests
Teil I: Statistische Datenanalyse
1.
Beschreibende und explorative Methoden
1.1 Charakterisierung von Merkmalen
1.2 Grundgesamtheit und Stichprobe
1.3 Die Häufigkeitsverteilung diskreter und stetiger eindim.
Merkmale
- absolute u. relative Häufigkeiten und ihre grafische
Darstellung, empirische Verteilungsfunktion
1.4 Lage- und Streuungsmaße, Schiefe und Exzeß
- arithm. Mittel, Median, gestutztes Mittel, Modalwert,
geometrisches Mittel, α- Quantil
- Spannweite, Medianabstand, Quartilsabstand, Varianz,
Standardabweichung, Standardfehler des arithm.
Mittelwertes, Variationskoeffizient, Box- und Whisker Plots
- Schiefe und Exzess
1.5. Zwei- und mehrdimensionale Merkmale
- grafische Darstellung (XY-Scatterplot)
- 2-dim. Häufigkeitsverteilung
- Zusammenhangsmaße (Assoziations,- Maß- und
Rangkorrelationskoeffizient)
- lineare Regression (einf. und multiple lineare Regression)
2. Wahrscheinlichkeitsrechnung
2.1 Zufälliges Ereignis, Wahrscheinlichkeit, Zufallsgröße
2.2 Parameter von Zufallsgrößen (Erwartungswert u. Varianz)
2.3 Spezielle Verteilungen (Binomial- und Normalverteilung)
2.4 Prüfverteilungen (χ2-, t- u. F- Verteilung)
3. Schließende Methoden
3.1 Punktschätzungen, Konfidenzintervalle, Toleranzintervalle
3.2 Statistische Tests bei 1- und 2- Stichprobenproblemen
3.2 1- und 2-faktorielle Varianzanalyse bei Mehrstichprobenproblemen
3.3 Einf. lin. und polynomiale Regression und multiple lin.
Regression
Teil 2: Statistische Versuchsplanung
4. Einführung in die stat. Versuchsplanung
4.1 Arten statistischer Versuchspläne
- Faktorielle Versuchspläne 1. Ordnung 2k und 2k-1
- Zentral zusammengesetzte Versuchspläne
- Mischungspläne
4.2 Beispiele zu stat. Versuchsplänen
- Herstellung eines chemischen Produktes
- Untersuchung des Fermentationsprozesses zur
Gewinnung von Ethanol
- Entwicklung eines glutenfreien und ballaststoffangereicherten Gebäckes mit optimalen Eigenschaften
Teil 3: Multivariate stat. Methoden
5. Übersicht über multivariate stat. Methoden
5.1 Strukturen-entdeckende Verfahren
- Hauptkomponentenanalyse
- Faktorenanalyse
- Clusteranalyse
5.2 Strukturen-prüfende Verfahren
- Regressionsanalyse, Varianzanalyse
- Diskriminanzanalyse
5.3 Beispiel zu multivariaten stat. Methoden
- Herkunftsbestimmung von Weinen auf der Basis
chemischer Parameter
EINLEITUNG
1. Was ist Statistik? (Biometrie, Technometrie, Ökonometrie)
Statistik ist die Wissenschaft des Sammelns, Analysierens
und Interpretierens von Daten.
Sie beantwortet die Fragen:
1. Wie gewinnt man welche Daten?
2. Wie kann man Daten beschreiben? und
3. Welche Schlüsse kann man aus Daten ziehen?
Teilgebiete:
Stochastik
Beschreibende Statistik
Wahrscheinlichkeitstheorie
Schließende Statistik
Stat. DA
Stat. VP
2. Wie lügt man mit Statistik?
Bsp. 1: Wir leben im Zeitalter der Umfragen!
● Bsp.: Das Ergebnis einer Umfrage unter 1883 Lesern der
NZZ ergab, dass 139 das NZZ- Folio zum Thema
„Katastrophen“ aus einer Liste von 12 Folios
besonders gut gefallen hat, dabei war dieses Folio
nie erschienen.
● Bsp.: Bei der Frage, “welche der folgenden Bücher haben
Sie gelesen?” behaupteten 416 (22%) der Teilnehmer
“Ulysses” von J. Joyce, das waren nur geringfügig
weniger als jene, die “Sakrileg” von D. Brown gelesen
hatten, während nur 75 (4%) Metzlers “Grissini &
Alpenbitter” gelesen hatten.
Fazit:
1. Meist werden Multiple-Choice- Fragebögen eingesetzt, die
eine einfachere Auswertung ermöglichen, aber den Nachteil
haben, dass vorgegebene Antworten die Leute auf Ideen
bringen, die sie sonst nicht gehabt hätten und differenzierte
Antworten unmöglich machen.
2. Eine Umfrage verrät nie, was die Leute tatsächlich
denken oder tun, sondern nur, was sie sagen, sie würden es
denken oder tun. Die Wahrheit lässt sich nicht aus einem
Fragebogen ablesen!
3. Es ist ein Merkmal von Umfragen, dass niemand für seine
Behauptungen geradestehen muss. Müssen Teilnehmer
befürchten, dass ihre Antworten überprüft werden, fallen die
Ergebnisse anders aus, als wenn sie anonym erhoben
werden.
Jeder Fragebogen, anonym oder nicht, ist also eine
Einladung zur Selbsttäuschung.
4. Ergebnisse von Umfragen hängen häufig von der Fragestellung ab und davon, wer sie stellt und laden damit zur
bewussten Irreführung ein.
Im Rahmen seriöser, wissenschaftlich fundierter Fragebogenuntersuchungen gibt es Möglichkeiten, Antworten auf ihre
Zuverlässigkeit zu prüfen. (z.B. Prüfen der Konsistenz von
Antworten, keine Zulassung von Suggestivfragen, Anwendung
zertifizierter Fragebögen,…)
Dennoch: Misstrauen bei der Deutung von Umfrageergebnissen in Medien (Presse, Telefon,
Internet), Politik, Wirtschaft und gesellschaftlichen Organisationen ist angebracht!
Bsp. 2: Mittelwert- und Streuungsmaße
● Bsp.: Das durchschnittliche Einkommen niedergelassener
Ärzte in der Schweiz beträgt jährlich 205000 SF,
behaupten Politiker, stimmt nicht, behaupten die Ärzte,
die von 165000 SF ausgehen. Wer hat Recht?
Bsp. 2: Mittelwert- und Streuungsmaße
● Bsp.: Das durchschnittliche Einkommen niedergelassener
Ärzte in der Schweiz beträgt jährlich 205000 SF,
behaupten Politiker, stimmt nicht, behaupten die Ärzte,
die von 165000 SF ausgehen. Wer hat Recht?
⇒ die Ärzte, denn man muss den Median als Zentrum
der linkssteilen, rechtsschiefen Häufigkeitsverteilung
(wenige Ärzte verdienen sehr viel mehr!) zu Grunde legen,
Gleiches gilt für Spareinlagen, Vermögen,…
Der Median (Zentralwert, 0,5-Quantil) ist außerdem robust
gegenüber Ausreißern.
Das arithm. Mittel ist dagegen der beste Schätzwert bei
normalverteilten Grundgesamten. Dazu muss man sich die
Verteilung aber vorher ansehen und sie auf Normalverteilung
prüfen!
● Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl
der Bakterien pro Einheit von 100 auf 500. Man bestimme die durchschnittliche tägliche Zunahme in [%].
● Bsp.: Die mittlere Keimzahl von Milchproben ist zu
bestimmen, wobei sich die Messwerte um Zehnerpotenzen unterscheiden.
⇒Bei der Bestimmung mittlerer Wachstumsraten, ebenso
wie bei Zähldaten, die sich um Zehnerpotenzen in den
Werten unterscheiden, verwendet man dagegen das
geometrische Mittel.
Neben Mittelwertmaßen liefern Streuungsmaße wichtige
Informationen über Daten.
● Bsp.: Wenn man im Durchschnitt an jedem Tag des Monats
ein Glas Rotwein trinkt, aber alle an einem Tag,
bekommt man eine Alkoholvergiftung und überlebt sie
vermutlich nicht.
Trinkt man aber jeden Tag des Monats nur ein Glas,
lebt man vielleicht sogar länger, als wenn man nie
Rotwein trinken würde.
⇒ Im Mittel erhält man den gleichen Wert, aber die Abweichung vom Mittelwert ist im ersten Fall viel größer.
⇒ Allen Mittelwertmaßen fügt man entsprechende
Streuungsmaße, wie z.B. Standardabweichung oder
Medianabstand bei.
Bsp. 3: Vorsicht bei Grafiken!
55
100
54,5
54
80
53,5
53
60
Reihe1
52,5
Reihe1
52
40
51,5
51
20
50,5
50
0
1
2
3
1
2
3
Achtung: Wenn eine vertikale Achse nicht bei 0 beginnt,
werden Unterschiede überhöht!
Bsp. 5: Signifikanzaussagen bei stat. Tests
● Regelmässig werden Studienergebnisse veröffentlicht,
die einander widersprechen:
- Chem. Industriegebiete ↔ Leukämie
- Hormonersatztherapie ↔ Herzerkrankungen
● Um die Chancen für die Veröffentlichung eines Artikels zu
erhöhen, werden “ungünstige” oder negative Ergebnisse oft weggelassen. Schädliche Therapiewirkungen,
wie Schmerzintensität, bleiben häufig unbeachtet.
● Es gibt einen Zusammenhang zwischen den Resultaten
von Studien und ihrer Finanzierung (Pos. Ergebnisse
bei 80% der industriefinanzierten Projekte, nur 50% bei
unabh. Forschern- laut Auswertung von 1000 Studien),
● Viele Forscher benutzen statistische Verfahren, die sie
nicht verstehen!
Mit Signifikanztests will man eine Entscheidung zwischen
zwei Hypothesen, der Nullhypothese H0 und einer Alternativhypothese HA herbeiführen.
Dabei kann man 2 Fehler begehen:
die Fehler 1. oder 2. Art mit den Wahrscheinlichkeiten α bzw. β.
H0 wahr
HA wahr
Testannahme von H0
Richtige Entsch. (1-α)
Fehler 2. Art (β)
Testannahme von HA
Fehler 1. Art (α)
Richtige Entsch. (1-β)
In Signifikanztests wird nur das Risiko für den Fehler 1. Art
α kontrolliert, während das Risiko für den Fehler 2. Art β unberücksichtigt bleibt, d.h. aber nicht, dass es nicht vorhanden ist!
⇒ Folgen des F.1. A. sollten die sein, die man auf jeden
Fall vermeiden möchte!
● Bsp.: Grenzwert für Asbestfasern in Gebäuden liege bei
einer Konzentration von λ0 = 1000 Fasern /m3
(X~π
π(λ
λ))
π- Poissonverteilung
λ- Mittelwert der PV
Variante 1: H0: λ ≤ λ0
HA: λ > λ0
Variante 2: H0: λ ≥ λ0
HA: λ < λ0
● Bsp.: Grenzwert für Asbestfasern in Gebäuden liege bei
einer Konzentration von λ0 = 1000 Fasern /m3
(X~π
π(λ
λ))
π- Poissonverteilung
λ- Mittelwert der PV
Variante 1: H0: λ ≤ λ0
HA: λ > λ0
Variante 2: H0: λ ≥ λ0
HA: λ < λ0
F.1.A. bei Variante 1: Obwohl in Wirklichkeit die Asbestkonzentration unterhalb des Grenzwertes liegt,
wird das Gebäude saniert.
bei Variante 2: Obwohl der Grenzwert der Konzentration
überschritten wird, wird das Gebäude
nicht saniert!
(zu bevorzugende Variante!)
Stichprobenumfangproblem:
In zu kleinen Stichproben können selbst große, praktisch
bedeutsame Effekte nicht nachgewiesen werden, da sie
sich nicht klar genug von den zufälligen Fehlern abheben.
Mit großen Stichproben kann man dagegen praktisch
unwichtige Effekte als “statistisch signifikant” ausweisen.
⇒ “Praktische Relevanz” beachten und auf der Basis
von Vorgaben über die Wahrscheinlichkeiten für die
Fehler 1. u. 2. Art den Stichprobenumfang berechnen!
1.Teil: Statistische Datenanalyse
1. Beschreibende
Methoden
s. /9/ Stahel
Die Beschreibende und explorative Statistik dient
der Beschreibung, Strukturierung und
Verdichtung umfangreichen Datenmaterials.
Wie erhält man nun Daten und welcher Art sind die Daten?
Erhebungen und Versuche
Ziel: Kenntnisse über die Eigenschaften bestimmter Objekte
(z.B. Anlagen, Messmethoden, Weinproben, Hefestämme)
oder Individuen (z.B. Personen, Tiere, Pflanzen) zu
erhalten
• Erhebungen ⇒
Ist-Standsanalysen
• Versuche
- Vergleich von Gruppen
- Untersuchung von Zusammenhängen
zwischen Merkmalen
⇒
1.1. Charakterisierung von Merkmalen
Die Objekte/ Individuen, an denen Beobachtungen vorgenommen werden, heißen Beobachtungseinheiten
(Merkmalsträger).
Dabei ist kein Objekt/ Individuum mit einem anderen
identisch. Diese Unterschiedlichkeit nennt man Variabilität.
Die Variabilität biologischer Objekte/ Individuen ist häufig
genetisch oder umweltbedingt.
- Die Größen oder Eigenschaften, auf die sich die
Beobachtungen beziehen, heißen Merkmale.
- Jedes Objekt/ Individuum ist durch eine spezielle Merkmalsausprägung gekennzeichnet.
- Alle beobachteten Werte eines Merkmals heißen
Merkmalswerte.
Klassifizierung von Merkmalen
1.
Merkmale
Quantitative Merkmale
Qualitative Merkmale
(Unterscheidung durch Art)
Bsp.: Geschlecht, Rasse, Sorte,
(Unterscheidung durch Größe)
Bsp.: Alter, Gewicht, Masse, Länge,
Land, Hefestamm, Aroma
2.
Merkmale
Diskrete Merkmale
(endlich viele oder abzählbar unendlich
viele Merkmalsausprägungen)
Bsp.: Geschlecht, Rasse, Sorte, Land,
Hefestamm, Aroma, Zellzahl
Volumen, Einkommen, Wasser- u.
Lufttemperatur, Konzentration,
Zellzahl
Stetige Merkmale
(überabzählbar unendlich viele Ausprägungen, d.h. Werte im reellen
Zahlenintervall)
Bsp.: Alter, Gewicht, Masse, …
Merkmale
3.
Nominalskalierte
Merkmale
(Skala mit niedrigstem
Niveau, keine
Vergleichbarkeit oder
Rangfolge zwischen
den Werten)
Bsp.: Geschlecht, Rasse,
Sorte, Land,
Hefestamm,
Aroma
Ordinalskalierte
Merkmale
Metrisch skalierte
Merkmale
(Skala mit höherem
(Skala mit höchstem
Niveau, Werte unterNiveau, Abstände
scheiden sich in ihrer
zwischen den Werten
Intensität, ermöglichen
sind interpretierbar)
eine Rangfolgeordnung, jedoch keine Bsp.: Alter, Gewicht, Masse,
Länge, Volumen, EinInterpretation der
kommen, Wasser- u.
Abstände zwischen
Lufttemperatur, Zellden Rängen)
zahl, Konzentration,
Bsp.: Aroma, Härtegrad,
sensor. Parameter,
Zensuren
Intervallskala
Proportionsskala
1.2. Grundgesamtheit und Stichprobe
Daten kann man durch Befragung von Personen (Erhebungen)
oder durch Experimente (Messungen) gewinnen.
Experimente
Passive Experimente
Alle Beobachtungswerte
ergeben sich zufällig
während des Versuches!
Aktive Experimente
Aktive Planung der Experimente
vor deren Durchführung, Planung
der Versuchsbedingungen
Kombinierte Experimente
Anwendung der Methoden
der statistischen
Versuchsplanung (SVP)!
Methoden der statistischen Versuchsplanung
Ziel: Erzielen von Ergebnissen mit ausreichender
Sicherheit und Genauigkeit bei minimaler Anzahl
von Versuchen
Problem
Planung
3 (4) Versuchsetappen:
Durchführung
Auswertung
Bsp.1: Herstellung einer Chemikalie
[s. /7/]
PROBLEM:
Zur Herstellung einer Chemikalie werden mehrere
Ausgangsstoffe einschließlich Katalysator vermischt und
über längere Zeit erhitzt. Dabei erfolgt eine Reaktion und
das Reaktionsprodukt wird abgetrennt.
ZIEL:
Erhöhung der Ausbeute durch eine Untersuchung der
Wirkung der Einflussgrößen:
- Temperatur [°C]
- Reaktionszeit [h] und
- Katalysatormenge [%]
und ihrer Wechselwirkungen
Faktorielle VP 1. Ordnung vom Typ 2k (k=3)
Vers.
Einflussgrößen
2-fakt. WW
Nr. B X
X2
X3 X1X2 X1X3 X2X3
1
B
j
1
+
-
-
-
+
+
+
2
+
+
-
-
-
-
+
3
-
-
+
-
-
+
-
4
-
+
+
-
+
-
-
5
-
-
-
+
+
-
-
6
-
+
-
+
-
+
-
7
+
-
+
+
-
-
+
8
+
+
+
+
+
+
+
0
0
0
9-14
Zielgrößen
Y1
Y2
Bsp1.: Herstellung einer Chemikalie
Mittelwerte der Ausbeute mit Konfidenzintervall
68,012 (66,48,69,55)
(+++)
55,387 (53,85,56,92)
62,387 (60,85,63,92)
Katalysator
54,012 (52,48,55,55)
68,887 (67,35,70,42)
56,112 (54,58,57,65)
61,813 (60,28,63,35)
53,287 (51,75,54,82)
Zeit
(- - -)
Temperatur
Def.: Die Menge aller möglichen Werte eines Merkmals nennt
man Grundgesamtheit.
Eine endliche Teilmenge der Grundgesamtheit nennt
man Stichprobe.
Besteht die Teilmenge aus n Elementen, so heißt n
Stichprobenumfang.
Def.: Der Gesamtheit der Merkmalswerte entspricht eindeutig
eine Gesamtheit von Beobachtungseinheiten
(Merkmalsträgern), die man ebenfalls als Grundgesamtheit oder Population bezeichnet.
Die Grundgesamtheit muss bei jeder Aufgabenstellung
festgelegt werden!
Bsp.: Die Füllhöhe von 50 Bierflaschen (Stichprobe) der
Tagesproduktion (Grundgesamtheit) einer Brauerei soll
untersucht werden.
Mathematische Statistik
Beschreibende
Statistik
Schließende
Statistik
Wahrscheinlichkeitsrechnung
Induktionsschluss
Stichprobe
Grundgesamtheit
Deduktionsschluss
Was ist bei einer Stichprobenentnahme zu
beachten?
Die Stichprobenauswahl muss so erfolgen, dass die
Stichprobe die Grundgesamtheit repräsentiert!
1. Zufälligkeit der Stichprobe
2. Vermeiden systematischer Fehler
3. Umfang der Stichprobe
Optimaler Stichprobenumfang ist abhängig von :
- zeitlichen, arbeitstechnischen und finanziellen Faktoren
- Wahl des statistischen Modells
- Genauigkeit der Ergebnisse
- Umfang der Grundgesamtheit
4. Homogenität und gleiche Genauigkeit
5. Vergleichbarkeit
1.3. Die Häufigkeitsverteilung diskreter und
stetiger eindim. Merkmale
Bei einem Versuch wird an n Beobachtungseinheiten ein
Merkmal X beobachtet, d.h. an jeder Einheit wird die
Ausprägung dieses Merkmals festgestellt.
Sind a1,...,am die möglichen Ausprägungen des Merkmals X,
so wird also der i-ten Beobachtungseinheit (i=1,...n) seine
Ausprägung aj als Merkmalswert xi zugeordnet:
xi = aj (i)
Bsp.: n = 100 Bierflaschen
X = Biersorte
a1 = Radeberger
a2 = Paulaner
a3 = Kindl
Merkmalswert
Ausprägung
Beobachtungseinheit
Schritte der Datenerfassung und -aufbereitung:
1. Schritt: Erfassung der Daten eines oder mehrerer
Merkmale
Stichprobe (ungeordnete Urliste): Merkmalswerte x1,...,xn
Variationsreihe (geordnete Urliste): x(1) ,...,x(n) ,
wobei x(1) ≤... ≤ x(n)
Skalierung der Ausprägungen: a1,…,am
Bsp.: Weindaten
Nr.
i
Land
L
Art
A
Rebsorte
R
Histamingehalt
H [mg/l]
Butandiolgehalt
B [g/l]
1
l1
a1
r1
h1
b1
…
…
…
…
…
…
7
l7 = 5
a7 = 2
r7 = 2
h7 = 0,4
b7 = 0,49
…
…
…
…
…
…
n
ln
an
rn
hn
bn
Skalierung:
Land:
li = 1 = „Deutschland“
2 = „Bulgarien“
3 = „Österreich“
4 = „Frankreich“
5 = „Australien“
Art:
ai =
1 = „Rotwein“
2 = „Weißwein“
3 = „Roséwein“
Rebsorte:
ri =
1 = „Cabernet Sauvignon“
2 = „Chardonnay“
3 = „Merlot“
4 = „Riesling“
2. Schritt: Ermittlung der abs. und rel. Häufigkeiten
2.1. (Primäre) Häufigkeitsverteilung (HV) bei diskreten
Merkmalen
Def.: Beobachtet man an n Beobachtungseinheiten ein
Merkmal X, das in m Ausprägungen a1,...,am
vorkommt, so heißt
fn(aj) = "Anzahl der Fälle, in denen aj auftritt" für j=1,...,m
absolute Häufigkeit der Ausprägung aj.
Bem.: - Σ fn(aj) = n
- Die abs. Häufigkeiten hängen vom Stichprobenumfang n ab
Def.: Die relative Häufigkeit
hn(aj) = (1/n) fn(aj)
für j=1,...,m
gibt den Anteil der Beobachtungseinheiten bezogen
auf n an, die die Ausprägung aj haben.
Bem.: - Σ hn(aj) = 1
- 0 ≤ hn(aj) ≤ 1
- Die Folge der relativen Häufigkeiten hn(a1),...,hn(am)
heißt rel. Häufigkeitsverteilung des Merkmals X.
2.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen
Merkmalen (mit Klassenbildung)
- Da stetige Merkmale in sehr vielen Ausprägungen auftreten,
fasst man verschiedene Ausprägungen in Klassen
zusammen.
- Man zerlegt das Intervall, in dem alle Beobachtungswerte
liegen in m Klassen:
K1,...,Km mit Kj = (yj-1; yj] ; j=1,...,m
mit den Klassengrenzen: yj-1 und yj
und den Klassenmitten:
xj = (yj-1+yj) /2
- Die Anzahl der Klassen wählt man häufig m ≤ n
(oder 5 ≤ m ≤ 20), wobei n der Stichprobenumfang ist.
- Der Abstand d =yj - yj-1 für j=1,...,m heißt Klassenbreite.
(äquidistante Klassen)
Bem.: Durch die Angabe der unteren Anfangsklassengrenze
y0 und die Klassenbreite d oder durch y0, ym und m
wird eine Klasseneinteilung eindeutig bestimmt.
Def.: Als absolute Klassenhäufigkeit bezeichnet man
fn(xj) = "Anzahl der Beobachtungswerte in der j- ten
Klasse mit der Klassenmitte xj" (j=1,...,m)
Def.: Als relative Klassenhäufigkeit bezeichnet man
hn(xj) = (1/n) · fn(xj)
Bem.: Die Folge der relativen Häufigkeiten hn(x1),...,hn(xm)
heißt rel. Häufigkeitsverteilung des stet. Merkmals X.
3. Schritt: Grafische Darstellungen
- Stabdiagramm (Strecken- oder Liniendiagramm)
hn(aj)
● über jeder Ausprägung auf der Abszisse
wird die zugehörige Häufigkeit als
senkrechte Strecke abgetragen,
● besonders für diskrete Merkmale geeignet,
z.B.: Anzahl der Stillstände einer Anlage,
Aromastufen, Hefestämme, Schrotarten
- Häufigkeitspolygon
a1...
aj
hn(aj)
● erhält man durch Verbindung der Endpunkte der Strecken des Stabdiagramms,
● besonders zur Darstellung zeitlicher
Verläufe geeignet,
z.B.: monatliche Entwicklung der Arbeitslosenzahlen
a1...
aj
- Histogramm
hn(xj)
● Häufigkeiten werden als
aneinanderstoßende Rechtecke
dargestellt, deren Flächen proportional
den Häufigkeiten sind,
● besonders für stetige Merkmale geeignet
- Flächendiagramme, z.B.:
Kreisdiagramme
● Häufigkeiten werden durch Flächen
repräsentiert,
● zur Strukturdarstellung geeignet,
z.B.: Anzahl der Beschäftigten in verschiedenen Wirtschaftszweigen,
Wahlergebnisse
x1
y0 y1 …
13%
13%
57%
17%
xj
4. Schritt: Ermittlung der empirischen Verteilungsfunktion
4.1. (Primäre) Häufigkeitsverteilung bei diskreten
Merkmalen (ohne Klassenbildung)
Def.: Die absolute Summenhäufigkeit der j- ten Ausprägung
aj ist die Anzahl der Beobachtungseinheiten, bei denen
eine Ausprägung ≤ aj beobachtet wurde, d.h.
j
fn(a1) + ... + fn(aj) =
∑ f (a
k =1
n
k
)
; j=1,...,m
Def.: Die relative Summenhäufigkeit der j- ten Ausprägung
gibt den Anteil der Beobachtungseinheiten an, bei
denen eine Ausprägung ≤ aj beobachtet wurde, d.h.
j
hn(a1) + ... + hn(aj) =
∑ h (a
k =1
n
k
)
; j=1,…,m
Durch die Folge der relativen Summenhäufigkeiten wird die
empirische Verteilungsfunktion des Merkmals X bestimmt.
Def.: Die empirische Verteilungsfunktion des Merkmals X
ist eine Funktion über dem Bereich der reellen Zahlen R
0
;
x < a1

 j
F̂n ( x ) = ∑ hn (ak ) ; a j ≤ x < a j+1
j = 1,..., m
 k =1
1
;
x ≥ am

(x∈R)
Bem.: Die empirische Verteilungsfunktion ist auf jedem
Intervall [aj,aj+1) konstant und springt bei aj+1 um den
Wert hn(aj+1) nach oben. Die erste Sprungstelle liegt bei
der kleinsten, die letzte bei der größten beobachteten
Merkmalsausprägung.
F̂n (x)
1
hn(a1)+ hn(a2)
hn(a1)
x
a1
a2
Ausprägungen
4.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen
Merkmalen (mit Klassenbildung)
Def.: Die absolute Klassensummenhäufigkeit der j- ten
Klasse ist die Anzahl der Beobachtungswerte, die in
einer Klasse mit einer Klassenmitte ≤ xj liegen, d.h.
j
fn(x1) + ... + fn(xj) =
∑ f (x
k =1
n
k
)
; j=1,...,m
Def.: Die relative Klassensummenhäufigkeit der j- ten
Klasse gibt den Anteil der Beobachtungswerte an, die
in einer Klasse mit der Klassenmitte ≤ xj liegen, d.h.
j
hn(x1) + ... + hn(xj) =
∑h (x
k =1
n
k
)
; j=1,...,m
Durch die Folge der relativen Klassensummenhäufigkeiten
wird die empirische Verteilungsfunktion von X bestimmt!
Def.: Die empirische Verteilungsfunktion des Merkmals X,
deren Beobachtungswerte in Klassen vorliegen, hat
folgende Gestalt:
0
;
x < x1

 j
F̂n ( x ) = ∑ hn ( x k ) ; x j ≤ x < x j+1
j = 1,..., m
 k =1
1
;
x ≥ xm

Bem.: Die empirische Verteilungsfunktion an der Stelle x ist
die Summe der relativen Häufigkeiten aller Klassen,
deren Mitten xj ≤ x sind. Als Sprungstellen werden jetzt
die Klassenmitten verwendet.
Bsp.: Weindaten- stet. Merkmal Butandiolgehalt
Sekundäre Verteilungstabelle (y0 = 0 ; d = 0,25):
Kl.Nr. Kl.grenzen Kl.mitte abs.Häuf. rel.Häuf. abs.K.S.H. rel.K.S.H.
j
(yj-1 ; yj]
xj
fn(xj)
hn(xj)
-----------------------------------------------------------------------------------------------------0 (- ∞ ; 0]
1 (0
; 0,25] 0,125
f1
h1
f1
h1
2 (0,25 ; 0,50] 0,375
f2
h2
f1+f2
h1+h2
M
7
M
(1,50 ; 1,75]
(1,75 ; ∞)
1,625
M
f7
h7
n
M
1
j=1,….m
Bem.: Die empirische Verteilungsfunktion ist auf jedem
Intervall [xj,xj+1) konstant und springt bei xj+1 um den
Wert hn(xj+1) nach oben. Die erste Sprungstelle liegt bei
der kleinsten, die letzte bei der größten Klassenmitte.
F̂n (x)
1
hn(x1)+ hn(x2)
hn(x1)
x
x1
x2
Klassenmitten
Bsp.1: Kolonien von Mikroorganismen (s. /9/)
Aufgabe: Untersuchung der Eigenschaften von Mikroorganismen in der Luft
Versuch: Nährboden auf Agarplatte wurde 30 min. bei
Zimmertemperatur offen im Raum stehen gelassen,
nach Inkubation über 3 Tage waren 40 Pilz- bzw.
Bakterienkolonien gewachsen, von denen der
Durchmesser, die Antibiotikaresistenz, sowie die
Farbe bestimmt wurden.
1. Frage: Wie kann man die Verteilung der Merkmale
beschreiben?
Unterscheiden sich die Verteilungen der Durchmesser zwischen den Kolonien unterschiedlicher
Farbe?
1. Schritt: Datenerfassung und Merkmalsklassifizierung
X: Durchmesser [mm]
– quantitativ, stetig, metrisch skaliert
Y: Antibiotikaresistenz [-] – qualitativ, diskret, ordinal skaliert
Ausprägungen: 1- sehr sensitiv,
2- sensitiv,
3- intermediär,
4- resistent,
5- sehr resistent
Z: Farbe [-]
– qualitativ, diskret, nominal skaliert
Ausprägungen: 1- gelb,
2- weißlich,
3- braun,
4- orange,
5- farblos,
6- rosa,
7- grün
2. Schritt: Erfassung der Daten
Nr. i Durchmesser xi Resistenz yi
(Stichprobe)
yi cod
Farbe zi
zi
cod
1
0,5
sehr sensitiv
1
gelb
1
2
4,1
sensitiv
2
gelb
1
…
…
…
…
…
14
2,1
resistent
weißlich
2
…
…
…
…
…
28
0,2
sehr sensitiv
1
orange
4
29
1,5
sensitiv
2
orange
4
30
2,8
intermediär
3
farblos
5
…
…
…
…
…
34
4,2
resistent
rosa
6
…
…
…
…
…
38
10,1
sehr sensitiv
1
braun
3
39
3,3
intermediär
3
grün
7
40
4,2
intermediär
3
grün
7
4
4
3. Schritt: Bestimmung der empir. Häufigkeitsverteilung
Merkmal X: Durchmesser
Frequency Tabulation for Durchmesser
-------------------------------------------------------------------------------Lower
Upper
Relative
Cumulative Cum. Rel.
Class
Limit
Limit
Midpoint
Frequency Frequency Frequency
Frequency
-------------------------------------------------------------------------------at or below
0,0
0
0,0000
0
0,0000
1
0,0
2,0
1,0
3
0,0750
3
0,0750
2
2,0
4,0
3,0
7
0,1750
10
0,2500
3
4,0
6,0
5,0
10
0,2500
20
0,5000
4
6,0
8,0
7,0
10
0,2500
30
0,7500
5
8,0
10,0
9,0
7
0,1750
37
0,9250
6
10,0
12,0
11,0
3
0,0750
40
1,0000
above
12,0
0
0,0000
40
1,0000
--------------------------------------------------------------------------------
Histogram (abs. frequencies)
percentage [%]
10
Durchmesser
frequency
12
100
10
80
8
60
6
40
4
20
2
0
2
4
6
8
10 12
Durchmesser
8
6
4
2
0
0
0
Box-and-Whisker Plot
Histogram (rel. cumulative frequencies)
0
2
4
6
8
Durchmesser
10
12
Merkmal Y: Antibiotikaresistenz
(Ausprägungen hier nicht codiert!)
Frequency Table for Antibiotikaresistenz
-----------------------------------------------------------------------Relative
Cumulative Cum. Rel.
Class
Value
Frequency Frequency Frequency
Frequency
-----------------------------------------------------------------------1
intermediär
8
0,2000
8
0,2000
2
resistent
6
0,1500
14
0,3500
3
sehr resistent
4
0,1000
18
0,4500
4
sehr sensitiv
13
0,3250
31
0,7750
5
sensitiv
9
0,2250
40
1,0000
------------------------------------------------------------------------
Barchart for Antibiotikaresistenz
frequency
15
12
9
6
Piechart for Antibiotikaresistenz
3
0
22,50%
20,00%
32,50%
15,00%
Antibiotikaresistenz
intermediär
resistent
10,00%
sehr resistent
sehr sensitiv
sensitiv
intermediär resistent sehr resistent
sehr sensitiv sensitiv
Kategorien weisen hier keine Ordnung auf!
Merkmal Y: Antibiotikaresistenz
(Ausprägungen hier numerisch codiert!)
Frequency Tabulation for Antibiotikaresistenz_1
-------------------------------------------------------------------------------Lower
Upper
Relative
Cumulative Cum. Rel.
Class
Limit
Limit
Midpoint
Frequency Frequency Frequency
Frequency
-------------------------------------------------------------------------------at or below
0,5
0
0,0000
0
0,0000
1
0,5
1,5
1,0
13
0,3250
13
0,3250
2
1,5
2,5
2,0
9
0,2250
22
0,5500
3
2,5
3,5
3,0
8
0,2000
30
0,7500
4
3,5
4,5
4,0
6
0,1500
36
0,9000
5
4,5
5,5
5,0
4
0,1000
40
1,0000
above
5,5
0
0,0000
40
1,0000
--------------------------------------------------------------------------------
Ausprägungen
Histogram
Ordnung zwischen den Kategorien
12
9
Dot Diagram
6
13
3
0
0
1
2
3
4
5
Antibiotikaresistenz_1
6
Frequency
frequency
15
0
0
1
2
3
4
5
Antibiotikaresistenz_1
Merkmal Z: Farbe
(Ausprägungen hier nicht codiert!)
Frequency Table for Farbe
-----------------------------------------------------------------------Relative
Cumulative Cum. Rel.
Class
Value
Frequency Frequency Frequency
Frequency
-----------------------------------------------------------------------1
braun
1
0,0250
1
0,0250
2
farblos
4
0,1000
5
0,1250
3
gelb
13
0,3250
18
0,4500
4
grün
2
0,0500
20
0,5000
5
orange
2
0,0500
22
0,5500
6
rosa
4
0,1000
26
0,6500
7
weißlich
14
0,3500
40
1,0000
------------------------------------------------------------------------
Barchart for Farbe
frequency
15
Kategorien weisen keine Ordnung auf!
12
Piechart for Farbe
9
2,50%
10,00%
6
3
35,00%
0
braun farblos gelb grün orange rosa weißlich
10,00%
5,00%
5,00%
Farbe
braun
32,50% farblos
gelb
grün
orange
rosa
weißlich
Vergleich der rel. Häufigkeitsverteilungen der Durchmesser
zwischen den Kolonien unterschiedlicher Farbe
Histogram
Histogram
40
30
percentage
percentage
25
30
20
20
15
10
10
0
5
0
0
2
4
6
8
10
12
0
Durchmesser der gelben Kolonien
percentage
40
30
20
10
0
1
4
6
8
10
12
Durchmesser der weißlichen Kolonien
Histogram
-1
2
3
5
7
9
11
Durchmesser der sonstigen Kolonien
2. Frage: Wie kann man mittels statistischer Maßzahlen einen
quantitativen Vergleich der Häufigkeitsverteilungen
vornehmen?
Wie unterscheiden sich die mittleren Durchmesser
zwischen den Kolonien unterschiedlicher Farbe, wie
stark streuen die Werte?
1.4. Lage- und Streuungsmaße, Schiefe und Exzeß
1.4.1 Lagemaße
1. Mittelwertmaße
Mittelwertmaße geben an, wo sich das Zentrum einer
Häufigkeitsverteilung befindet.
● Arithmetischer Mittelwert
Seien x1, ... ,xn die Beobachtungswerte des Merkmals X
1 n
x = ∑ xi
n i =1
● Arithmetischer Mittelwert
Seien x1, ... ,xn die Beobachtungswerte des Merkmals X
1 n
x = ∑ xi
n i =1
Vorteile: - der arithm. Mittelwert einer Stichprobe ist ein
unverzerrter Schätzwert für den Mittelwert einer
normalverteilten Grundgesamtheit und gut geeignet
bei eingipfligen Häufigkeitsverteilungen
- alle Informationen der Stichprobe werden
ausgeschöpft
Nachteile: - das arithm. Mittel ist unbrauchbar bei schiefen
oder mehrgipfligen Verteilungen
- das arithm. Mittel ist nicht robust gegenüber
Ausreißern
● Median (Zentralwert)
- Der Median ist dadurch charakterisiert, dass jeweils 50 %
der Beobachtungswerte einen Wert ≤ und 50 % einen Wert
≥ dem Median haben.
- Wir ordnen daher die Beobachtungswerte der Größe nach
und erhalten die Variationsreihe x(1) , ... ,x(n) mit
x(1) ≤ ... ≤ x(n)
~
x 0 ,5
 x ( k +1)
; für n = 2k + 1

=  x ( k ) + x ( k +1)
; für n = 2k

2
Vorteile: - der Median ist auch bei asymmetrischen und
mehrgipfligen Verteilungen verwendbar
- er ist zu bevorzugen bei nur wenigen Messwerten
und auch bei ordinalskalierten Beobachtungsmerkmalen
- er ist robust gegenüber Ausreißern
Nachteile: - es werden nicht alle Informationen der Stichprobe
ausgeschöpft (nicht alle Messwerte gehen
in die Berechnung des Medianes ein)
- bei normalverteilten Merkmalen hat er schlechtere
Schätzeigenschaften als das arithm. Mittel
● Gestutztes Mittel
- Wir ordnen wieder die Stichprobe der Größe nach und
streichen dann die m untersten und die m obersten
Merkmalswerte.
- Dann erhält man das (m/n) ·100 % - gestutzte Mittel, indem
man das arithmetische Mittel aus den verbleibenden n - 2m
Merkmalswerten bildet.
1
xm =
( x(m+1) + ... + x(n−m) )
n − 2m
n
● Gestutztes Mittel
- Wir ordnen wieder die Stichprobe der Größe nach und
streichen dann die m untersten und die m obersten
Merkmalswerte.
- Dann erhält man das (m/n) ·100 % - gestutzte Mittel, indem
man das arithmetische Mittel aus den verbleibenden n - 2m
Merkmalswerten bildet.
1
xm =
( x(m+1) + ... + x(n−m) )
n − 2m
n
• Vorteil: - das gestutzte Mittel ist robust gegenüber Ausreißern und basiert im Vergleich zum Median auf
einer größeren Anzahl von Werten
• Nachteil: - es besitzt bei Normalverteilung schlechtere Schätzeigenschaften als das arithm. Mittel und schöpft
nicht alle Informationen der Stichprobe aus
● Modalwert (Dichtemittel, Modus)
Bei eingipfligen Verteilungen gibt das Dichtemittel die
Ausprägung mit der größten Häufigkeit in der Messreihe an.
Bei klassierten Daten (stet. Merkmale) gibt es die Klassenmitte der Klasse mit der größten Klassenhäufigkeit an.
fn (xmod) ≥ fn (aj)
∀aj
j=1,...,m
● Modalwert (Dichtemittel, Modus)
Bei eingipfligen Verteilungen gibt das Dichtemittel die
Ausprägung mit der größten Häufigkeit in der Messreihe an.
Bei klassierten Daten (stet. Merkmale) gibt es die Klassenmitte der Klasse mit der größten Klassenhäufigkeit an.
fn (xmod) ≥ fn (aj)
∀aj
j=1,...,m
Vorteile: - das Dichtemittel ist auch bei nominal- und ordinalskalierten Merkmalen anwendbar
- bei mehrgipfligen Verteilungen gibt man neben
dem Median auch die lokalen Dichtemittel an
- das Dichtemittel ist robust gegenüber Ausreißern
Nachteile: - bei Normalverteilung hat das Dichtemittel
schlechtere Eigenschaften als das arithm. Mittel
- nicht alle Beobachtungswerte gehen in die
Berechnung des Dichtemittels ein
● Geometrisches Mittel
- Sind die Merkmalswerte relative Änderungen (Zuwachsraten,
Produktionssteigerungen), so wird das geometrische Mittel
verwendet, da die Gesamtänderung nicht durch eine Summe,
sondern durch ein Produkt beschrieben wird.
- Anwendung bei Messdaten, die statt der arithm. eine
geometr. Zahlenfolge bilden (z.B. bei Verdünnungsreihen).
- Anwendung bei Zähldaten, von denen bekannt ist, dass sie
durch multiplikative Wirkungen entstanden sind, deren Werte
sehr unterschiedliche Größenordnungen aufweisen und die
eine stark asymmetrische Häufigkeitsverteilung aufweisen
(z.B. Keimzahlen in flüssigen Medien, wie Milch und Gülle).
- Anwendung bei logarithmischen Daten (z.B. Spektralanalyse)
Es gibt folgende Möglichkeiten der Berechnung des geom.
Mittels und der durchschnittlichen Zuwachsrate:
1. Seien x1, ... ,xn Beobachtungswerte (rel. Änderungen, bez.
auf 1 = 100%) mit xi ≥ 0 für i=1,...,n und r die durchschnittliche Zuwachsrate.
xg = n x1 ⋅K⋅ xn
und
r =
xg − 1
2. Manche Analysenmethoden liefern die Logarithmen der
gesuchten Gehalte (z.B. Spektralanalyse).
1 n
lg x g = ∑ lg x i =
n i=1
lg x
x g = 10
lg x
3. Wenn sich eine Anfangsmenge A in einer Zeiteinheit um eine
konstante Zuwachsrate r erhöht, dann erhält man nach n
Zeiteinheiten die Endmenge E: E = A(1+r)n
xg = n E A
und
r =
xg − 1
Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl
der Bakterien pro Einheit von 100 auf 500.
Wie groß ist die durchschnittliche tägliche Zunahme ?
Lösung:
Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103]
gemessen:
5150 26900 285 265 4750 60900 1410 3950 2150
8250 30500 295
Wie groß ist die mittlere Keimzahl?
Lösung:
Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahl
der Bakterien pro Einheit von 100 auf 500.
Wie groß ist die durchschnittliche tägliche Zunahme?
Lösung:
r = x g − 1 = n E A − 1 = 0,71 = 71 %
Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103]
gemessen:
5150 26900 285 265 4750 60900 1410 3950 2150
8250 30500 295
Wie groß ist die mittlere Keimzahl?
Lösung: Da die Werte über mehrere Zehnerpotenzen
schwanken, wird das geom. Mittel bestimmt.
x g = 10lg x = 106,5358 = 3.433.998
(Im Vergleich: x = 12.067.083 )
2. Weitere Lagemaße:
● α - Quantil
Wir betrachten die Variationsreihe x (1) , ... ,x (n) .
Dann sind α % der Merkmalswerte ≤ und (1- α) % der
Merkmalswerte ≥ dem α - Quantil.
 x(k+1)
;k = int(n ⋅ α), falls n ⋅ α keine

~
xα =  x(k ) + x(k+1)
;k =
n ⋅ α, falls n ⋅ α

2
g.Z.
g.Z.
(int = ganzer Teil; g.Z.= ganze Zahl)
Wenn
 0 ,5

α =  0 , 25
 0 , 75

⇒
⇒
⇒
Median
unteres
oberes
Quartil
Quartil
1.4.2 Streuungsmaße
Maße, die die Abweichung der Beobachtungswerte vom
Zentrum einer Häufigkeitsverteilung beschreiben, heißen
Streuungs- oder Dispersionsmaße.
● Spannweite (Range, Variationsbreite)
Einfachstes Streuungsmaß, gibt den Streubereich einer HV
an, d.h. den Bereich, in dem alle Merkmalswerte liegen.
Sei x(1), ... ,x(n) eine Variationsreihe, dann gilt:
R = x(n) - x(1) .
Vorteil:
- Einfach zu bestimmendes Streuungsmaß,
einfach interpretierbar
Nachteile: - R ist nicht robust gegenüber Ausreißern
- R besitzt keine guten stat. Schätzeigenschaften
● Quartilsabstand (Interquartile range)
- Der Quartilsabstand gibt den Bereich zwischen oberem und
unterem Quartil einer Messreihe an.
- Er enthält 50 % aller Merkmalswerte.
I =
~
x 0 ,75 − ~
x 0 ,25
Vorteile: - I ist robust gegenüber Ausreißern
- I ist anschaulich und besitzt bessere statistische
Schätzeigenschaften als die Spannweite
Nachteil: - nicht alle Informationen der Stichprobe gehen in
die Berechnung ein
● Median der absoluten Abweichungen der Werte
vom Median
~
mad = med ( x i − x 0 ,5 ) = ~
y 0 ,5
~
yi = x i − x 0 , 5
Vorteile: - d ist robust gegenüber Ausreißern
- d ist gut geeignet bei schiefen Häufigkeitsverteilungen
Nachteil: - bei Normalverteilung ist die empir. Varianz das
bessere Schätzmaß
● Stichprobenvarianz und Standardabweichung
- Wir betrachten nun als Bezugsgröße für das Zentrum der HV
das arithmetische Mittel.
- Dann ist die Stichprobenvarianz die durchschnittliche
quadratische Abweichung der Messwerte vom arithmetischen
Mittelwert.
- Dabei wird jedoch durch den Faktor (n-1), d.h. die Anzahl der
voneinander unabhängigen Abweichungen, genannt
Freiheitsgrad, dividiert.
- Der Stichprobenumfang n sollte mindestens 6 betragen!
n
n


1
1
2
2
2
2
  ∑ xi  − n ⋅ x 
s =
( xi − x ) =
∑
n − 1 i=1
n − 1  i=1 

- Als Standardabweichung s bezeichnet man:
s=
1 n
2
(
x
−
x
)
=
∑
i
n − 1 i=1
n
1
2
(( ∑ x i ) − n x 2 )
n − 1 i=1
- Der Standardfehler des arithm. Mittelwertes bezieht sich
auf den Stichprobenumfang:
s
sx =
n
Vorteile: - Die Varianz s2 hat die besten Schätzeigenschaften
bei Normalverteilung
- Die Standardabweichung s hat die gleiche
Dimension wie die Messwerte und der arithm.
Mittelwert, man kann daher Intervalle der Form
x±s
bzw.
x ± 3 ⋅ s angeben.
Nachteil: - s2 ist nicht robust gegenüber Ausreißern
- Variationskoeffizient
Der Variationskoeffizient ist ein von
x bereinigtes Streuungs-
maß, das das Verhältnis von s und
x
misst.
s
v=
⋅ [100 %]
I xI
Vorteil:
- v ist gut geeignet zum Vergleich von Streuungen
von Beobachtungsreihen mit unterschiedlichem
Mittelwert
Grafische Darstellung von Lage- und Streuungsmaßen:
1. Box- und Whisker Plot
Enzymaktivitäten von 8 Mutanten
Vanadiumgehalt von Weinen
Multipler Box- Whisker Plot für Vanadium
Box & Whisker Plot
(Enzymaktivitäten)
3,0
75
2,5
2,0
65
1,5
60
1,0
55
0,5
20
1
2
3
4
5
Mutanten
6
7
8
Median
25%-75%
Min-Max
Weisswein
Rotwein
Land
So uth Africa
25
Ro mania
30
Hu ngary
-1,5
35
Czech Republic
-1,0
So uth Africa
40
-0,5
Ro mania
45
0,0
Hu ngary
50
Czech Republic
Vanad ium
Enzymkonzentrationen
70
Median
25%-75%
Non-Outlier Range
Grafische Darstellung von Lage- und Streuungsmaßen:
2. Mittelwertplots
Enzymaktivitäten von 8 Mutanten
Mittelwertplot
Mittelwertplot
(Enzymaktivitäten von Mutanten)
(Enzymaktivitäten)
75
70
70
65
Enzymkonzentrationen
Enzymkonzentrationen
65
60
55
50
45
40
35
60
55
50
45
40
35
30
30
25
20
1
2
3
4
5
Mutanten
6
7
8
arithm . Mittelwert
MW + - 95%-iges Konfidenzintervall
Extrem werte
25
1
2
3
4
5
Mutanten
6
7
8
arithm . MW
Mean±0,95*SD
Bsp.1: 40 Kolonien von Mikroorganismen
Mittelwertmaße:
Merkmal X: Durchmesser (metrisch)
Stichprobe
Verteilungsform
Alle Kolonien (40)
Gelbe Kolonien (13)
Weißliche Kolonien (14)
SonstigeKolonien (13)
Arithm. MW Median Vergleich
symmetrisch
5,9
6,0
≈
rechtssteil
7,1
7,7
<
symmetrisch
6,0
6,0
=
linkssteil
4,5
4,2
>
Merkmal Y: Antibiotikaresistenz (ordinal)
Median:
~
x 0,5 = 2
Modalwert: D = 1
(sensitiv)
(13 · „1“, 10 · „2“, 8 · „3“, 5 · „4“, 4 · „5“ )
(sehr sensitiv)
Merkmal Z: Farbe (nominal)
Modalwert: D = 2 (weißlich ist die am häufigsten auftretende Farbe)
Streuungsmaße:
Merkmal X: Durchmesser
Varianz
Stand.
abw.
Quartilsabst.
Var.
koeff.
11,7
8,71
2,95
4,3
0,50
Gelbe Kolonien (13)
11,4
8,77
2,96
3,6
0,41
Weißliche Kolonien (14)
8,0
7,50
2,74
3,8
0,45
Sonstige Kolonien (13)
9,9
7,62
2,76
3,4
0,61
Spannweite
Alle Kolonien (40)
Stichprobe
Box-and-Whisker Plot
12
12
10
10
Durchmesser
Durchmesser
Box-and-Whisker Plot
8
6
4
2
8
6
4
2
0
0
gelb
sonstige
Farbgruppe
weißlich
braunfarblosgelb grünorangerosaweißlich
Farbe
1.4.3. Schiefe und Exzess
1. Schiefe
- Wenn der Median und der Modalwert vom arithmetischen
Mittel abweichen, bezeichnet man eine Verteilung als schief.
- Man charakterisiert schiefe Verteilungen außerdem durch die
Schiefe g1 als Maß für die Schiefheit und ihre Richtung.
- Echt schiefe Verteilungen liegen vor, wenn bei Vorliegen
einer großen Anzahl von Beobachtungswerten und der
Anwendung aller möglichen Transformation der Daten die
Schiefheit der Verteilung bestehen bleibt.
- Keine echte Schiefe liegt vor, wenn man schiefe
Verteilungen durch Transformationen (z.B. Logarithmieren) in
symmetrische überführen kann.
Bsp.: Auftreten log. Verteilungen bei:
• Analyse sehr niedriger Gehalte (z.B. Spurenanalyse)
• Merkmalen mit sehr großer Spannweite (mehrere
Zehnerpotenzen)
• sehr großem Zufallsfehler (z.B. halbquantitative
Spektralanalyse)
g1 =
1 n
3
−
(
x
x
)
∑ i
n i=1
1 n
( ∑ ( x i − x ) 2 )3
n i=1
1 n  xi − x 
= ∑

n i=1  s 
Eine HV ist symmetrisch, wenn
3
x=~
x 0,5 = x mod
Eine HV ist linksschief oder rechtssteil, wenn
und
g1 = 0
x<~
x 0,5 < x mod
und g1 < 0
~
Eine HV ist rechtsschief oder linkssteil, wenn x > x 0,5 > x mod
und g1 > 0
2. Exzeß und Kurtosis
- Mängel in den gewählten Versuchsbedingungen können zu
einer Verzerrung (Überhöhung- Streckung oder Unterhöhung
-Stauchung) der Häufigkeitsverteilung führen.
Sie werden durch den Exzeß g2 charakterisiert.
- Der Exzeß gibt an, ob das absolute Maximum der Häufigkeitsverteilung (bei annähernd gleicher Varianz) größer oder
kleiner dem Maximum der Normalverteilungsdichte ist.
g2 =
1 n
4
(
x
−
x
)
∑ i
n i=1
1
2
 n ∑ (xi − x) 
 i=1

n
2
g2‘ heißt Kurtosis.
−3
=
4
1  xi − x 

 − 3 = g 2 ' −3
∑
n i=1  s 
n
Wenn g2 = 0
⇒
Häufigkeitsverteilung entspricht der NV
Wenn g2 < 0
⇒
abs. Häufigkeitsmaximum < Maximum der
NV- Dichte (HV ist flachgipfliger),
d.h. die Anzahl „größerer“ Abweichungen
von x ist geringer als bei der NV bei
gleicher Varianz.
Wenn g2 > 0
⇒
abs. Häufigkeitsmaximum > Maximum der
NV- Dichte (HV ist steilgipfliger),
d.h. die Anzahl „größerer“ Abweichungen
von x ist größer als bei der NV bei
gleicher Varianz.
Als k- tes Moment bezeichnet man:
und als k-tes zentriertes Moment:
1
n
n
∑
i=1
xi
k
1 n
k
(
x
−
x
)
∑
i
n i =1
Bem.: Damit stellen der arithm. Mittelwert das 1. Moment
und die empirische Varianz das 2. zentrierte Moment
dar, während Schiefe und Exzeß auf dem 3. bzw. 4.
zentrierten Moment basieren.
1.5. Mehrdimensionale Merkmale
Wir haben bisher überwiegend Aufgabenstellungen
betrachtet, bei denen an jeder Beobachtungseinheit nur ein
einziges Merkmal beobachtet wurde.
- Bei vielen praktischen Problemen wirken jedoch Merkmale
nicht nur einzeln, sondern auch im Komplex. Es interessiert
dann der Zusammenhang zwischen zwei oder mehreren
Merkmalen.
- Wir bezeichnen einen Komplex von Merkmalen auch als
mehrdimensionales Merkmal (od. Merkmalsvektor) und
schreiben: (X1,...,Xn), bzw. (X,Y) bei einem zweidimensionalen Merkmal.
Beispiele:
1. X- Lagerzeit von Zuckerrüben
Y- Saccharosegehalt von Zuckerrüben
2. X- Kaliumgehalt von Weinen
Y- Aschegehalt von Weinen
(X- deterministische d.h.
einstellbare Einflussgröße,
Y- zufällige Zielgröße)
(X und Y - zufällige Größen,
jede kann als Einfluss- bzw.
Zielgröße betrachtet werden)
3. Prozess des Nass-Salzens von Hartkäse
(X1,X2,X3 - determ.
X1- Natriumchloridgehalt im Salzbad
Einflussgrößen,
X2- Temperatur des Salzbades
Y1,Y2 - zufällige
X3- Salzdauer
Zielgrößen)
Y1- Masseausbeute des Käses nach dem Salzen
Y2- Sensorischer Qualitätsparameter
WICHTIG: Erfassung aller für den zu untersuchenden Sachverhalt (Produkt, Prozess) wesentlichen Merkmale!
5 Fragestellungen sind von Interesse:
1. Welche Art von Merkmalen werden betrachtet?
(Klassifizierung, Einflussgröße einstellbar oder zufällig?)
2. Wie lassen sich zweidimensionale Merkmale grafisch
darstellen? (Punktwolke, Streudiagramm, XY- Scatterplot)
3. Wie sieht die Häufigkeitsverteilung (tabellarisch und
grafisch) eines zweidimensionalen Merkmals aus?
(2-dim. Häufigk.tabelle, Kontingenztafel, 3-dim. Histogramm)
4. Wie stark ist der Zusammenhang zwischen 2 Merkmalen
X und Y und welche Richtung hat er?
(Assoziations-, Kontingenz-, Maßkorrelations- oder
Rangkorrelationskoeffizient)
5. In welcher Form lässt sich der Zusammenhang
darstellen?
(Kontingenztafel-, Varianz- u. Regressionsanalyse)
zu 2.) Streudiagramm (XY- Scatterplot)
y
annähernd linearer Zusammenhang
x
y
y
Hyperbel
Rezipr. Transf.
x
Bsp.: Fallhöhe und Schwingungsfrequenz von Wasserfällen
1/x
zu 3.) Häufigkeitsverteilung
Zur Darstellung von Häufigkeitsverteilungen dienen
Häufigkeitstabellen (Vierfeldertafeln, Kontingenztafeln) und
grafische Darstellungen durch zweidimensionale Histogramme
oder Polygone.
1. Fall:
- Sei (X,Y) ein nominalskaliertes 2- dim. Merkmal mit je 2
Ausprägungen (aj,bk) j,k=1,2 (z.B.: ja/ nein, vorhanden, nicht
vorhanden)
Vierfeldertafel (2 x 2):
Y
X vorhanden
nicht vorh.
Summe
Summe
vorhanden
nicht vorhanden
f11
f12
f11+f12
f21
f22
f21+f22
f11+f21
f12+f22
n
Bsp.: Untersuchung von 227 Ratten auf Milbenbefall der
Spezies A und B
Vierfeldertafel (2x2):
Spezies A
Summe
vorhanden
nicht vorhanden
Spezies vorhanden
B
nicht vorhanden
44
23
67
75
85
160
Summe
119
108
227
- Die Randsummen geben Aufschluss darüber, wie viele der
Ratten eine der beiden Milben beherbergen bzw. nicht beherbergen, unabhängig davon, ob die andere Spezies vorhanden
ist oder nicht, d.h. sie geben die eindimensionalen Häufigkeitsverteilungen an.
Ergebnis:
- Der Anteil der Träger von A- Milben unter den Trägern von BMilben ist größer als in der Gesamtprobe, denn nur auf etwa
der Hälfte aller 227 Ratten kamen A- Milben vor (Randsumme
119), aber in der Teilmenge der 67 Ratten, die B- Milben
beherbergen, befinden sich 44 Träger von A- Milben.
Umgekehrt gilt dasselbe.
- Zwischen dem A- Milbenbefall und dem B- Milbenbefall
scheint also ein statistischer Zusammenhang zu bestehen.
Bem.: - In einer Vierfeldertafel erkennt man einen statistischen Zusammenhang daran, dass die abs. Häufigkeiten einer Reihe bzw. Spalte im Tafelinnern nicht
proportional zu den entsprechenden Randsummen
sind (44/23 ≠ 119/108 bzw. 75/85 ≠ 119/108, analog
die Verhältnisse zur Zeilensumme!)
- aber: bei kleinen abs. Häufigkeiten können durch
Zufall Disproportionalitäten vorgetäuscht sein,
d.h. die Sicherheit für das Vorhanden sein
eines statistischen Zusammenhanges ist
entsprechend gering!
2. Fall:
- Sei (X,Y) ein ordinalskaliertes 2- dim. Merkmal, bei dem
jede Komponente auf einer Rangskala gemessen wird,
d.h. als Merkmalsausprägung eine Rangzahl hat.
- Vorliegen einer Tabelle der Rangzahlen (keine Häufigkeitstabelle!)
Tabelle der Rangzahlen:
i
R(xi)
R(yi)
di
di2
1
R(x1)
R(y1)
d1
d1 2
...
...
...
...
...
n
R(xn)
R(yn)
dn
dn 2
- dabei ist di = R(xi) - R(yi) die Differenz der Rangzahlen der
i- ten Komponente von X und Y
Bsp.: Weinverkostung
Bei einer Weinverkostung sollen 8 Weinsorten hinsichtlich
ihres Aromas in eine Rangordnung gebracht werden. 2 Prüfer
sollen unabhängig voneinander die Sorten begutachten, wobei
die Sorte mit dem schwächsten Aroma die Rangzahl 1 und die
Sorte mit dem stärksten Aroma die Rangzahl 8 erhalten soll.
Tabelle der Rangzahlen:
i
Sorte
Prüfer 1
R(xi)
Prüfer 2
R(yi)
di
1
A
6
5
1
2
B
3
2
1
3
C
8
8
0
4
D
2
4
-2
5
E
1
1
0
6
F
7
6
1
7
G
4
3
1
8
H
5
7
-2
Ergebnis:
- Nur bei 2 Sorten gab es Übereinstimmung in der Bewertung,
bei allen übrigen Sorten gab es Differenzen, die aber nicht
mehr als 2 Rangzahlen betragen.
- Man kann einen statistischen Zusammenhang vermuten,
denn je höher im allgemeinen die Rangzahl des 1. Prüfers
ist, desto höher ist im allgemeinen auch die Rangzahl des 2.
Prüfers.
- Die Weinsorten scheinen also Aromaunterschiede
aufzuweisen und beide Prüfer waren in der Lage, diese
zu erkennen.
3. Fall:
Sei (X,Y) ein nominal- oder ordinalskaliertes 2- dim. Merkmal,
deren Ausprägungen (aj,bk) mit den relativen Häufigkeiten hjk
für j=1,...,l auftreten.
Bsp.: Untersuchung der Noten von 32 Studenten in
Mathematik und Statistik
(2 ordinalskalierte Merkmale)
Kontingenztafel (5 x 5):
Note in Mathematik
Note
in
Statistik
1
2
3
4
5
Summe
1
1
1
0
0
0
2
2
0
2
3
0
0
5
3
0
2
10
4
0
16
4
0
0
2
4
0
6
5
0
0
1
1
1
3
Summe
1
5
16
9
1
32
Bsp.: Untersuchung des Zusammenhangs von Haar- und
Augenfarbe von Frauen (Nominalskala) (Lebart, L. u.a.,1995)
Haarfarbe
Augenfarbe
schwarz
braun
rot
blond
Σ
68
119
26
7
220
15
54
14
10
93
grün
5
29
14
16
64
blau
20
84
17
94
215
Σ
108
286
71
127
592
dunkelbraun
hellbraun
4. Fall:
- Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, für deren
Komponenten X und Y eine Klasseneinteilung vorliegt
Häufigkeitstabelle (analog Kontingenztafel!) (l x m):
Klassengrenzen
X
(y0;y1]
Y
(y1;y2]
...
(ym-1;ym]
Summe
(x0;x1]
f11
f12
...
f1m
f1.
(x1;x2]
f21
f22
...
f2m
f2.
...
...
...
...
...
(xl-1;xl]
fl1
fl2
f.1
f.2
Summe
...
flm
fl⋅
f.m
n
Bsp.: Untersuchung des Asche- und Kaliumgehaltes von
Weinen
Bsp.: Weindaten (3- dim.Histogramm)
2- dim. Histogramm
(Weine aus Ungarn und Tschechien)
2- dim. Histogramm
(Weine aus Ungarn und Tschechien)
zu 4.) Zusammenhangsmaße
Art der Merkmale Häufigkeitsvert. Zusammenhangsmaß
nominalskaliert
Vierfeldertafel
Assoziationskoeff. von
Cramér, Kontingenzkoeff.
von Pearson
nominal- oder (und)
ordinalskaliert
Kontingenztafel
Assoziationskoeff. von
Cramér und Kontingenzkoeff. von Pearson
ordinalskaliert
(Tab. von
Rangzahlen)
Rangkorrelationskoeff. von
Spearman
metrisch skaliert
2- dim.
Häufigkeitstabelle
(Kontingenztafel)
Vor.: X,Y zufällige Merkmale
Lin. Abhängigkeit → Maßkorrelationskoeff. von
Bravais/ Pearson
Mon. Abhängigkeit → Rangkorrelationskoeff. von
Spearman
1. Kontingenzkoeffizient C von Pearson:
- Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertes
diskretes Merkmal, das in den Ausprägungen (aj, bk) für
j = 1,…l und k = 1,…,m mit den abs. Häufigkeiten fjk auftritt.
- Der Kontingenzkoeffizient ist ein Maß für die Stärke des
stochastischen Zusammenhanges zwischen 2 diskreten
Merkmalen.
χ
C= 2
χ +n
2
wobei
f j⋅ ⋅ f⋅k

f −
l
m  jk
n

2
χ =∑∑
f j⋅ ⋅ f⋅k
j =1 k =1
n



2
Bem.: - Der Kontingenzkoeffizient C nimmt Werte im Intervall
vollst. Zusammenhang
kein Zusammenhang
min (l, m ) − 1
min (l, m )
0≤C≤
an.
- Der maximale Wert von C (d.h. vollständige Kontingenz)
ist von der Tafelgröße (Zeilen- bzw. Spaltenzahl l und m)
abhängig und nähert sich für große l bzw. m gegen 1.
⇒ besser: korrigierter Kontingenzkoeffizient von
Pearson Ccorr
- Für die Vierfeldertafel gilt:
χ
C= 2
χ +n
2
und 0 ≤ C ≤ 0,707
Bem.: - Der korrigierte Kontingenzkoeffizient Ccorr wird
berechnet nach:
C corr =
χ
min (l, m )
⋅
2
χ +n
min (l, m ) − 1
2
und es gilt nun: 0 ≤ Ccorr ≤ 1 ,
d.h. bei vollständiger Kontingenz wird immer der
Wert 1 angenommen, unabhängig von der
Größe der Kontingenztafel.
2. Assoziationskoeffizient von Cramér (Cramér‘s V):
- Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertes
diskretes Merkmal, das in den Ausprägungen (aj, bk) für
j = 1,…l und k = 1,…,m mit den abs. Häufigkeiten fjk auftritt.
- Der Assoziationskoeffizient ist ebenfalls ein Maß für die
Stärke des stochastischen Zusammenhanges zwischen 2
diskreten Merkmalen.
vollst. Zusammenhang
kein Zusammenhang
V=
wobei
χ
n (min (l, m )) − 1
2
mit
f j⋅ ⋅ f⋅k


f −
l
m  jk
n

2
χ = ∑∑
f j⋅ ⋅ f⋅k
j =1 k =1
n



2
0≤V≤1
3. Rangkorrelationskoeffizient rs von SPEARMAN:
- Sei (X,Y) ein 2- dim. , ordinal oder metrisch skaliertes
Merkmal, bei dem jede Komponente Merkmalswerte mit
einer eindeutigen Rangfolge hat (rangskaliert).
- Wir beobachten an den n Beobachtungseinheiten die
Merkmalswerte (xi,yi) für i=1,...,n
- Wir ordnen nun jedem Beobachtungswert xi bzw. yi für
i=1,...,n eine Rangzahl R(xi) bzw. R(yi) zu, wobei gilt:
R(x(i)) = i für i=1,...,n und x(1) ≤ x(2) ≤ ... ≤ x(n)
- Tritt eine Ausprägung mehrfach auf („Bindungen“), so ordnet
man diesen gleichen Werten als Rang das arithmetische
Mittel der Ränge zu, die sie einnehmen.
- Bsp.: x(1)=2;
x(2)=4;
x(3) =4;
x(4) =6;
x(5) =9
→ R(x(1))=1; R(x(2))=2,5; R(x(3))=2,5; R(x(4))=4; R(x(5))=5
- Der Rangkorrelationskoeffizient ist ein Maß für die Stärke
und Richtung eines monotonen stochastischen Zusammenhanges zwischen 2 rangskalierten Merkmalen.
Formel für den Rangkorrelationskoeffizienten rs:
∑ (R (x ) − R (x ))⋅ (R (y ) − R (y ))
n
rs =
i
i=1
i
(∑ (R (x ) − R (x )) )⋅ (∑ (R (y ) − R (y )) )
2
i
2
i
Wenn keine „Bindungen“ vorliegen,
d.h. wenn xi ≠ xj für i ≠ j und yi ≠ yj für i ≠ j gilt:
6 ⋅
rs = 1 −
n
∑
(
i= 1
2
n ⋅ n
di
2
− 1
)
, wobei d i = R (x i ) − R (y i )
i=1,…,n
Bem.: Für den Rangkorrelationskoeffizienten gilt:
● Wenn rs < 0 → neg. Rangkorrelation
Wenn rs > 0 → pos. Rangkorrelation
● -1 ≤ rs ≤ +1
● |rs| = 1 , wenn X und Y monoton zusammenhängen
rs = 1 , wenn die x- Ränge mit den y- Rängen
übereinstimmen
rs = -1 , wenn die x- und y- Ränge genau
entgegengesetzte Rangfolgen ergeben.
Bsp.: Aromaprüfung von 8 Weinsorten durch 2 Prüfer
Der Rangkorrelationskoeffizient von rs = 0,86 deutet auf
einen recht starken, monoton wachsenden
stochastischen Zusammenhang hin.
4. Maßkorrelationskoeffizient rXY von BRAVAIS- PEARSON:
- Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, deren
Merkmalswerte (xi,yi) , i=1,...,n, einen näherungsweise
linearen Zusammenhang zwischen X und Y vermuten
lassen.
- Wir beobachten an den n Beobachtungseinheiten die
Merkmalswerte (xi,yi) für i=1,...,n
- Der Maßkorrelationskoeffizient ist ein Maß für die Stärke und
Richtung eines linearen stochast. Zusammenhanges
zwischen 2 metrisch skalierten Merkmalen.
Formel für den Maßkorrelationskoeffizienten rXY:
( n − 1)
rXY =
n
∑ (x
i =1
(n − 1)
(∑ (x
i
− x ) ⋅ (y i − y )
2
i
) (∑ (y
− x) ⋅
− y)
2
i
)
Bem.: Für den Maßkorrelationskoeffizienten rXY gilt:
● Wenn rXY < 0 → negative Korrelation
Wenn rXY > 0 → positive Korrelation
● -1 ≤ rXY ≤ +1
● |rXY| = 1 , wenn X und Y linear zusammenhängen
● Wenn rXY = 0 → Unkorreliertheit zwischen X und Y
Wenn rXY = 0 und (X,Y) 2- dim. normalverteilt
→ Unabhängigkeit zwischen X und Y
● Der Korrelationskoeffizient ist nicht imstande,
nichtlineare Zusammenhänge zwischen Merkmalen
zu erkennen.
● Man beachte Schein- und Unsinnkorrelationen!
Bem.: ● B = rXY2 heißt Bestimmtheitsmaß. Es gibt den
Anteil der Variation der y- Werte an, der durch
den linearen Zusammenhang zwischen X und Y
bestimmt wird.
● Bei der Untersuchung von linearen Abhängigkeiten
zwischen mehr als 2 Merkmalen gibt es:
- partielle Korrelationskoeffizienten,
- multiple Korrelationskoeffizienten und
- kanonische Korrelationskoeffizienten.
Zu 5.) Form der statistischen Abhängigkeit
- Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal mit den
Merkmalswerten (xi,yi) für i=1,...,n.
- Es interessiert die Form der Abhängigkeit eines Merkmals Y
(abhängiges Merkmal, Zielgröße, Regressand) von einem
Merkmal X (unabh. Merkmal, Einflussgröße, Regressor).
- Alle kontrollierbaren Einflussgrößen werden konstant
gehalten.
- Wir beschränken uns auf den Fall des Modells I der einfachen
linearen Regression (1Einflussgröße, lineare Abhängigkeit).
Vor.: ● Y zuf. Merkmal,
einstellbares Merkmal


● X  zuf. Merkmal, mit kleinem Fehler messbar  → RM I
 zuf. Merkmal

→ RM II
● Streudiagramm (XY- Scatterplot) →
Annahme eines linearen Modells für die Abhängigkeit
zwischen X und Y in der Grundgesamtheit:
y = β0 + β1 x,
genannt lineare Regressionsgleichung.
Dann gilt für die zuf. Beobachtungen der Zielgröße:
Yi = β0 + β1 xi + εi
i=1,…,n
Residuen,
wobei εi unabhängig und identisch
verteilt mit Eεi =0 und D2εi = σ2
und σ2 unabhängig von den
Messpunkten xi
Bem.: Wenn εi ~ N(0, σ2)
→ bei RM I : Yi~ N(β0 + β1 xi, σ2)
bzw. Y~ N(β0 + β1 x, σ2)
Regressionsanalyse:
1. Schätzung der empirischen linearen Regressionsgleichung
(Ausgleichsgerade) nach der Methode der kleinsten
Quadrate (MkQ, LS):
Zuf. Beobachtungswerte
Modellwerte
1 n
1 n 2
2
Q(β0 , β1 ) = ∑ (Yi − (β0 + β1 ⋅ x i )) = ∑ εi → min
n i=1
n i=1
Residuen
Die Werte von β0 und β1, für die Q(β0, β1) ihr Minimum
annimmt, nennt man Kleinste-Quadrate-Schätzer βˆ 0 und βˆ1 .
Durch Nullsetzen der partiellen Ableitungen von Q nach β0
und β1 erhält man ein Normalgleichungssystem, das zu
lösen ist.
Die auf der Basis der konkreten Stichprobe ermittelten
Schätzwerte für β0 und β1 bezeichnet man mit b0 und b1.
n
b1 =
∑ (x
i =1
i
n
∑ (x
i =1
und
− x ) ⋅ (y i − y )
− x)
2
i
=
SPXY
SQ X
oder:
b 1 = rXY
sY
sX
b0 = y − b1 ⋅ x
→ geschätzte lineare Regressionsgleichung:
ŷ (b 0 , b1 ) = b 0 + b1 ⋅ x
Bem.:
s XY
1 n
1
(
)
(
)
=
x
−
x
⋅
y
−
y
=
⋅ SP XY
∑
i
i
n − 1 i =1
n −1
heißt Kovarianz zwischen X und Y und
sX
2
1 n
1
2
(x i − x ) =
=
⋅ SQ X
∑
n − 1 i=1
n −1
Varianz von X.
2. Zeichnen der Regressionsgerade ins Streudiagramm:
y
ŷ = b0 + b1 ⋅ x
ŷ i

 ε̂

yi
i
b0
0
xi
x
3. Güte des Regressionsmodells
- Beurteilung der Güte der Modellvorhersage für jeden Messwert mit Hilfe der geschätzten Residuen εˆ i = y i − ŷ i , i=1,…, n
- Maß für die Variation der Stichprobenwerte um die
geschätzte Regressionsgerade: Restvarianz
sR
2
sR
1 n
1 n
1 n 2
2
2
(yi − ŷ i ) =
(y i − (b0 + b1 ⋅ x i )) =
=
εˆ i
∑
∑
∑
n − 2 i=1
n − 2 i=1
n − 2 i=1
2
1
=
⋅ SQR
n−2
geschätzte Residuen
Restquadratsumme
FG
- Streuungszerlegung (Zerlegung der Quadratsummen!):
SQ T = SQR + SQM
„Gesamtstreuung“
n
∑ (yi − y )
i=1
2
durch den Modellzusammenhang
erklärte „Streuung“
„Reststreuung“
n
n
= ∑ (y i − ŷ i ) + ∑ (ŷ i − y )
i=1
2
i=1
2
Erklärte Streuung: Darstellung der Variation der y- Werte,
die auf den linearen Zusammenhang
SQM
zwischen X und Y zurückzuführen ist,
d.h. sie enthält die Variation der Werte
auf der Geraden um den Mittelwert y .
Reststreuung:
SQR
Verbleibender Rest der Variation der yWerte
Bem.: ● Liegen alle beobachteten Werte exakt auf einer
Geraden, so sind die Residuen 0 und ebenso die
Reststreuung. Dann ließe sich die gesamte Variation
von Y durch den linearen Modellzusammenhang mit
X erklären (funktionaler linearer Zusammenhang).
● Je größer die Reststreuung ist, desto schlechter
beschreibt das Modell die Daten.
- Als Maßzahl für die Güte der Modellanpassung
verwendet man häufig das Bestimmtheitsmaß B.
Es gibt den Anteil an der Gesamtstreuung der y- Werte
an, der durch die Regression von Y auf X erklärt wird
und ist der Quotient aus erklärter und Gesamtstreuung.
n
SQM
B=
=
SQ T
∑ (ŷ
i=1
n
− y)
n
2
i
2
(
)
y
−
y
∑ i
= 1−
i=1
∑ (y
i=1
n
− ŷ i )
2
i
2
(
)
y
−
y
∑ i
i=1
0≤B≤1
kein linearer Zusammenhang
B = rXY2
funktionaler linearer Zusammenhang
Für Vorhersagen sollte das Bestimmtheitsmaß möglichst ≥ 0,8 sein!
Aber: B ist bei RM I vom Versuchsplan abhängig!
- Tests zur Prüfung der Modelladäquatheit (F- Test der
Varianzanalyse) und zur Prüfung der Modellparameter
(t- Tests, Konfidenzintervalle) im Rahmen der schließenden
Statistik
4. Residualanalyse
- Prüfen der Modellvoraussetzungen über den Zufallsfehler
(ε ~ N(0, σ2) und σ2 unabhängig von den Messpunkten xi)
- Residualplots
εˆ i = y i − ŷ i → normierte Residuen
d
εˆ i
di =
sεˆ
d
Ausreißer
d
+3
ŷ
0
0
x
0
-3
idealer Verlauf
ungleiche Varianzen
ŷ
d i > 3 → Ausreißer
Bsp.: Weindaten, Abhängigkeit zwischen den seltenen ErdenParametern Lanthanum und Gadolinum
XY- Scatterplot (Lanthanum, Gadolinum)
y = -0,7128 + ,91690 * x
Korrelationskoeffizient: r = 0,98136
1
0
Gadolinum
-1
-2
-3
-4
-5
-4
-3
-2
-1
Lanthanum
0
1
2
95% Konfigen zgrenzen
Normierte Residuen
1,2
1,0
0,8
Normierte Residuen
0,6
0,4
0,2
0,0
-0,2
-0,4
-0,6
-0,8
-1,0
-1,2
-1,4
-5
-4
-3
-2
-1
Geschätzte Werte für Gadolinum
0
1
Geschätzte gegen beobachtete Werte (Gadolinum)
1
Beobachtete Werte
0
-1
-2
-3
-4
-5
-5
-4
-3
-2
Geschätzte Werte
-1
0
1
95% Konfidenzgrenzen
Bsp.: Weindaten
(Matrix Plot)
Matrix Plot (Histogramm und Scatterplot)
für Alkalinität, Asche und Kalium (transformiert)
Alkalinität
As che
Kalium
2. Wahrscheinlichkeitsrechnung
Die Wahrscheinlichkeitsrechnung
liefert mathematische Modelle für
Zufallserscheinungen.
/9/ Stahel, W.
(1995)
Es werden Experimente betrachtet, deren Ergebnisse einen
zufälligen Ausgang haben, so genannte zufällige Versuche.
2.1. Zufälliges Ereignis, Wahrscheinlichkeit,
Zufallsgröße, Verteilungsfunktion
Begriffe und Definitionen:
Def.: Ein zufälliges Ereignis ist ein Ereignis, das bei
einem Versuch, bei dem bestimmte Bedingungen
eingehalten werden, eintreten kann, aber nicht
notwendig eintreten muss. Es ist das Ergebnis eines
zufälligen Versuches.
Bez.: A,B,C,...,A1,B1,...
Bsp. 1: Würfeln mit einem idealen Würfel und Beobachtung
der geworfenen Augenzahl (zuf. Versuch)
• zufällige Ereignisse sind:
• Ai := "Augenzahl i wird gewürfelt, i=1,...,6 ",
• aber auch: A7:= "Eine gerade Augenzahl wird
gewürfelt"
Begriffe: - Elementarereignis:
Elementarereignisse lassen sich nicht weiter in
zufällige Ereignisse zerlegen.
Bez.: ei ; i=1,...,n
Bsp.1: ei := "Würfeln der Augenzahl i, i=1,...,6 "
- Zusammengesetzte Ereignisse:
lassen sich weiter in zufällige Ereignisse zerlegen.
Bez.: Ai, Bi,... ; i=1,...,n
Bsp.1: A7 := "Würfeln einer geraden Zahl"
= {e2,e4,e6}
Def.: Die Menge E (oder: Ω) heißt Menge der zu einem
zufälligen Versuch gehörenden Elementarereignisse
Bsp.1: E = {e1,...,e6}
⇒ Schlussfolgerung: Methoden der Mengenlehre
(Vereinigung, Durchschnitt, Differenz)
sind anwendbar!
Def.: Ein zufälliges Ereignis A ist eine Teilmenge der
Menge E der Elementarereignisse, d.h. A ⊆ E .
Grenzfälle von zufälligen Ereignissen:
Def.: Sichere Ereignisse sind dadurch gekennzeichnet,
dass sie immer eintreten.
Bsp.1: E: = "Es wird eine Zahl zwischen 1 und 6 gewürfelt"
= {e1,...,e6}
Def.: Unmögliche Ereignisse sind dadurch charakterisiert,
dass sie nicht eintreten können.
Bsp.1: Ø := "Es wird eine '0' gewürfelt!"
Relationen und Operationen zwischen zufälligen
Ereignissen:
Def.: Ein zufälliges Ereignis A ist genau dann in B enthalten,
wenn alle Elementarereignisse, die zu A gehören, auch
A ⊆B
zu B gehören.
Bez.:
Bsp.1: Würfeln mit 1 Würfel:
A2 ⊆ A7
Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter
der Vereinigung von A und B das Ereignis, das genau
die Elementarereignisse enthält, die zu A oder zu B
gehören.
E
Bez.:
A ∪B
Bsp.1: Würfeln
A
B
A1 ∪ A 7 = {e1, e2 , e4 , e6 }
Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter
dem Durchschnitt von A und B das Ereignis, das
genau die Elementarereignisse enthält, die zu A und zu
B gehören.
E
Bez.:
A ∩B
Bsp.1: Würfeln
A
A1 ∩ A 7 = ∅
B
Def.: Zwei zufällige Ereignisse A und B heißen miteinander
unvereinbar (unverträglich), wenn sie keine
gemeinsamen Elementarereignisse besitzen.
Bez.: A ∩ B = ∅
Bsp.1: A1 ∩ A7= ∅
Def.: Ist A ein zufälliges Ereignis, so nennen wir das Ereignis,
das genau die Elementarereignisse enthält, die nicht zu
A gehören, das zu A komplementäre Ereignis.
Bez.:
A
Bsp.1:
A 7 = {1,3,5}
Def.: Sind A, B zufällige Ereignisse, so verstehen wir unter
der Differenz von A und B das Ereignis, das genau
die Elementarereignisse enthält, die zu A, aber nicht
zu B gehören. (d.h. wenn A, aber nicht B eintritt!)
Bez.: A \ B
Bsp.1: Würfeln
A7 \ A2 = {4, 6}
Damit gilt:
•
A
=E\A
E
A
B
Wahrscheinlichkeit:
Die Wahrscheinlichkeit ist das Maß für den Grad der
Gewissheit des Eintretens eines zufälligen Ereignisses A
1. Klassische Definition der Wahrscheinlichkeit (Laplace):
Ausgangspunkt:
• zufälliger Versuch mit endlich vielen Versuchsausgängen n,
d.h. E = {e1, ..., en}
• jeder Versuchsausgang sei gleichmöglich
• N(A) - Anzahl der Versuchausgänge, bei denen A eintritt
• n = N(E) - Gesamtzahl der Versuchsausgänge
Def.: Das Verhältnis von N(A) und n heißt Wahrscheinlichkeit des zuf. Ereignisses A und wird mit P(A)
bezeichnet.
N( A )
P( A ) =
n
Satz: Eigenschaften der klassische Wahrscheinlichkeit:
1. 0 ≤ P(A) ≤ 1
2. P(E) = 1 und P(∅) = 0
3. Sind A und B unvereinbare zuf. Ereignisse, d.h. A ∩ B = ∅,
so gilt: P(A ∪ B) = P(A) + P(B)
(Additionsregel für unvereinbare zuf. Ereignisse)
4. Sind A, B beliebige zuf. Ereignisse, so gilt:
P(A ∪ B) = P(A) + P(B) – P(A ∩ B)
(allg. Additionsregel für bel. zuf. Ereignisse)
5. P( A) = 1 – P(A)
6. Sind A und B unabhängige zuf. Ereignisse, so gilt:
P(A ∩ B) = P(A) ⋅ P(B)
(Multiplikationsregel für unabhängige zuf. Ereignisse)
Bem.:
Der klassischen Definition der Wahrscheinlichkeit
kommt deshalb besondere Bedeutung zu, weil man
auf dieser Grundlage für zahlreiche praktische
Fragestellungen Wahrscheinlichkeiten berechnen
kann.
Die Berechnung interessierender Wahrscheinlichkeiten
erfolgt nach Rechenregeln, wobei die Berechnung der
Anzahl der möglichen Fälle und der Anzahl der
günstigen Fälle für ein Ereignis häufig auf der Basis der
Methoden der Kombinatorik (Variation, Kombination mit
oder ohne Wiederholung), erfolgt.
Bsp.:
In einem Bierkasten befinden sich 25 Flaschen Bier, von
diesen sind 2 nicht qualitätsgerecht.
Frage: Wie groß ist die Wahrscheinlichkeit, dass eine zufällig
entnommene Flasche qualitätsgerecht ist (Ereignis A)?
Lösung: ● Anzahl der möglichen Versuchsausgänge n = 25
● Anzahl der für A „günstigen“ Versuchsausgänge
N(A) = 25 – 2 = 23
Damit ergibt sich:
N( A ) 23
P( A ) =
=
= 0,92
n
25
Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln
E = {(ei,ej), i,j = 1, ..., 6} = {(i, j), i,j = 1, ..., 6}
Anzahl der Elementarereignisse: n = 36
( W VmK = mk , m = 6, k = 2)
(Variation, d.h. mit Berücksichtigung der Anordnung, mit Wiederholung)
C:= „Die Summe der Augenzahlen aus beiden Würfeln (i + j) bzw.
(j + i) sei 10 oder 11“.
D:= „Die Summe der Augenzahlen aus beiden Würfeln sei
‚mindestens 10“ (10, 11 oder 12).“
ges.: P(C) und P(D)
C = {(4,6), (5,5), (5,6), (6,4), (6,5)}
Es gilt: P(C) ≤ P(D), da C ⊆ D
⇒ N(C) = 5
5
⇒ P (C ) =
= 0 ,139
36
D = {(4,6), (5,5), (5,6), (6,4), (6,5), (6,6)} ⇒ N(D) = 6
⇒ P(D) = 6 = 1 = 0,16
36
6
Die bedingte Wahrscheinlichkeit und die Unabhängigkeit
von Ereignissen:
Sei A ∈ ℰ. Die Zahl P(A) gibt die Wahrscheinlichkeit des
Ereignisses A im Rahmen der Bedingungen an, die den
betrachteten zufälligen Versuch kennzeichnen. Nehmen wir
gedanklich zu diesen Bedingungen noch die Bedingung „Das
zufällige Ereignis B ∈ ℰ ist bereits eingetreten“ hinzu, so wird
die Wahrscheinlichkeit des Eintretens von A nun durch eine
i.a. von P(A) verschiedene Zahl beschrieben.
Bsp.2: Würfeln mit 2 unterscheidbaren Würfeln
E = {(i,j) / i, j = 1, ..., 6}
C:= “ Summe der Augenzahlen 10 oder 11“
5
C = {(5,5), (4,6), (6,4), (5,6)}
P(C) =
36
B1:= „1. Würfel zeigt eine 3“
B2:= „1. Würfel zeigt eine 5“
ges.: P(C/B1) und P(C/B2)
Lösung:
B2 = {(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)}
Dann ist P(C/B1) = 0
P(C/B2) =
2
= 0 ,3
6
Es gilt: (C ∩ B2) = {(5,5), (5,6)}
Erweiterung von Zähler und Nenner mit 1/36:
2
P(C ∩ B 2 )
1
36
=
=
= 0,3
P(C/B2) =
6
P (B 2 )
3
36
⇒ Bedingte Wahrscheinlichkeiten können auf unbedingte
Wahrscheinlichkeiten zurückgeführt werden.
Def.: Seien A, B ∈ ℰ mit P(B) > 0, dann heißt die Wahrscheinlichkeit des Ereignisses A unter der Bedingung,
dass das Ereignis B schon eingetreten ist, bedingte
Wahrscheinlichkeit des Ereignisses A unter der
Bedingung B und wird nach der Formel
P( A ∩ B )
P( A / B ) =
P (B )
berechnet.
Satz: Seien A, B ∈ ℰ und P(B) > 0 bzw. P(A) > 0.
Dann gilt:
P(A ∩ B) = P(A/B) ⋅ P(B)
P(A ∩ B) = P(B ∩ A) = P(B/A) ⋅ P(A)
(Multiplikationsregel für bedingte Ereignisse)
2. Statistische Definition der Wahrscheinlichkeit:
Wir betrachten das Bsp.1: Würfeln mit 1 Würfel
Sei A das zuf. Ereignis, dass eine „6“ gewürfelt wird.
Der Versuch wird n- mal wiederholt (n = 50, 100, ...).
Dabei trat das Ereignis A N(A)- mal (z.B. N(A) = 7, 18, ...) auf.
Def.: Der Quotient aus der absoluten Häufigkeit und der
Gesamtzahl der Versuche heißt relative Häufigkeit
N( A )
hn ( A ) =
n
und hn(A) konvergiert stochastisch gegen P(A).
hn(A) ist also ein Schätzwert der Wahrscheinlichkeit P(A).
Anzahl der
Würfe n
Anzahl des
Auftretens des
"Wappen" N(A)
relative
Häufigkeit
hn=N(A)/n
4040
2048
0.5069
Pearson
12000
6019
0.5016
Pearson
24000
12012
0.5005
Bsp.: Münzwurf
Buffon
Stabilität der relativen Häufigkeit
hn(A)
P(A)
0
n
∞
Zufallsgröße (ZG)
Zufällige Ereignisse kann man durch reelle Zahlen
ausdrücken:
Zufallsgröße
X
E
.
ei
0
xi
=X(ei)
R
Def.: Eine Abbildung X heißt Zufallsgröße (ZG), wenn sie ihre
Werte mit einer bestimmten Wahrscheinlichkeit annimmt.
X
ei ∈ E → xi ∈ R
X(ei) = xi
Beispiele
1. Würfeln mit
einem Würfel
(Augenzahl)
Elementarereignisse
e1 – “Würfeln einer 1”
…
e6 – “Würfeln einer 6”
2. Herstellung
e0 – “genau 0 Ausschusserzeugnisse”
von
e1– “genau 1 Ausschusserzeugnis”
Erzeugnissen …
en– “genau n Ausschusserzeugnisse”
Werte der ZG X
→ 1 gewürfelte
…
Augenzahl
→6
→ 0 Anzahl der
→ 1 Ausschuss…
erzeug.
→n
Bez.: Zufallsgrößen bezeichnet man mit: X, Y, Z bzw. Xi, Yi, Zi
und ihre Werte (Realisierungen) mit: x, y, z bzw. xi, yi, zi.
Weitere Beispiele für Zufallsgrößen sind:
● Länge von Baumwollfasern einer bestimmten Sorte
● Länge und Volumen von Escherichia Coli -Zellen
● Anzahl der Stillstände einer Flaschenreinigungsanlage
● Anzahl nicht qualitätsgerechter Produkte
● Stickstoffmon- und -dioxidgehalt, Kohlenmonoxid- und
Ozongehalt, sowie Schwebestaubgehalt in der Luft
● Natrium,- Kalium-, Eisen- und Cadmiumgehalt von Weinen
● Enzymkonzentrationen verschiedener Mutanten der
Gattung Aspergillus niger
● Zellzahlen, Mikrokoloniezahlen
Wahrscheinlichkeit von zuf. Ereignissen → Wahrscheinlichkeit
von Zufallsgrößen
Bsp.: Münzwurf
e1:= “Wappen“ → P(e1) = 0,5
e2:= “Zahl“
→ P(e2) = 0,5
P(e1) = P(X=0) = 0,5
P(e2) = P(X=1) = 0,5
Bsp. 1: Würfeln mit 1 Würfel
A:= “Würfeln einer Augenzahl i ≤ 3“
A = {e1, e2, e3} →
3
P( A ) = = 0,5
6
P( A ) = P( X ≤ 3) = 0,5
1 1 1
P( X ≤ 3) = P( X = 1) + P( X = 2) + P( X = 3) = + + = 0,5
6 6 6
Def.: Sei X eine Zufallsgröße und P die Wahrscheinlichkeit
Dann heißt die durch FX(x) = P(X ≤ x) definierte
Funktion FX Verteilungsfunktion der ZG X.
Dann gilt auch: P(X > x) = 1- FX(x) und
P(a < X ≤ b) = FX(b) – FX(a)
Def. : Eine Zufallsgröße X heißt diskret, wenn sie endlich
oder abzählbar unendlich viele Werte annehmen kann.
Bsp.: Zellzahlen, Anzahl nicht qualitätsgerechter Produkte
Bem.: Man beschreibt eine diskrete ZG X durch die Werte
xi, die sie annehmen kann und die Einzelwahrscheinlichkeiten pi = P(X = xi), mit denen sie diese Werte
annimmt. ∞
Es gilt: ∑ p i = 1
i =1
Bsp. 1: Würfeln mit 1 Würfel
(Gleichverteilung)
Verteilungstabelle mit Verteilungsfunktion:
xi
<1
1
2
3
4
5
pi = P(X = xi)
0
1/6
1/6
1/6
1/6
1/6
1/6
0
FX(xi)
0
1/6
2/6
3/6
4/6
5/6
1
1
FX (x)
6
>6
1
p1=1/6
x
1
2
3
4
5
6
Die Verteilungsfunktion ist: FX ( x i ) = P ( X ≤ x i ) =
∑ P( X = x
k
xk ≤ xi
k
)
Def.: Eine Zufallsgröße heißt stetig, wenn sie überabzählbar
unendlich viele Werte (d.h. Werte aus einem reellen
Zahlenintervall) annehmen kann.
Ihre Verteilungsfunktion lässt sich wie folgt darstellen:
x
P(X ≤ x) = F X ( x ) =
∫f
X
( t ) dt
∀x∈R
−∞
fX(x) heißt Dichtefunktion von X
Bsp.: Eiweiß- und Fettgehalt von Milch, Enzymkonzentration,
Cholesteringehalt im Blut
Bem.: Für die Dichtefunktion gilt:
+∞
∫f
−∞
X
( x ) dx = 1
Dichtefunktion der Normalverteilung
0,4
0,1
Dichte
0,3
Bsp.: Normalverteilung
0,2
X ~ N(0,1)
0,1
0
-5
-3
-1
0
1
3
(Standard-Normalverteilung)
5
x
Verteilungsfunktion
Verteilungsfunktion der Normalverteilung
1
0,1
0,8
0,6
0,4
0,2
0
-5
-3
-1
0
x
1
3
5
x
FX ( x ) =
∫f
−∞
X
( t ) dt
Bem.: Für eine stetige ZG X gilt:
x
1. P( X ≤ x) = FX ( x) =
∫ f (t)dt
−∞
x
∫
2. P( X > x) = 1− FX (x) = 1− f (t)dt
−∞
b
∫
3. P(a < X ≤ b) = FX (b) − FX (a) = f ( x)dx
a
∀x mit a < x ≤ b
P(a < X ≤ b) ist die Wahrscheinlichkeit dafür, dass
eine Realisierung von X in das Intervall (a, b] fällt!
Diskrete ZG
Stetige ZG
endlich oder abzählbar unendlich
viele Werte
überabzählbar unendlich viele Werte
Einzelwahrscheinlichkeiten pi:
pi = P(X = xi) i = 1, 2, …
0 ≤ pi ≤ 1
Dichtefunktion fX:
fX(x) ≥ 0
∞
∑
i=1
+∞
pi = 1
∫f
( x )dx = 1
−∞
Verteilungsfunktion:
FX(x) = P(X ≤ x)
FX ( x ) =
X
∑p
∀x∈R
Verteilungsfunktion:
FX(x) = P(X ≤ x)
∀x∈R
x
FX ( x ) =
i
i
xi≤ x
X
( t )dt
−∞
FX rechtsseitig stetige Treppenfunktion, monoton wachsendR
P(a < X ≤ b) =
∫f
∑p
i
i
a< x i ≤b
FX stetig, monoton wachsend
b
P ( a < X ≤ b ) = ∫ f X ( x )dx
a
2.2 Parameter von Verteilungen
1. Erwartungswert:
Def.: Als Erwartungswert EX einer ZG X bezeichnen wir das
Zentrum ihrer Verteilung:
∞
∑x
i =1
EX =
i
⋅ pi
, X diskr. ZG
+∞
∫x⋅f
X
( x)dx
EX ∈ R
, X stet. ZG
−∞
Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.)
⇒ EX = 3,5
Satz: Eigenschaften des Erwartungswertes
Für die Erwartungswerte von diskreten oder stetigen
Zufallsgrößen X, X1, … und Konstante a,b ∈R gelten
folgende Aussagen:
1. Ea = a
2. E [EX] = EX
3. E [X1 +…+ Xn] = EX1 +…+ EXn
(Additionsregel)
4. E [aX] = a EX
(Linearitätsregel)
5. E [aX + b] = a EX + b
(lin. Transformation)
6. X1,…,Xn unabhängig ⇒ E [X1•…•Xn] = EX1•…•EXn
(Multiplikationsregel)
7. X ≥ 0 ⇒ EX ≥ 0
und X ≥ Y
⇒
EX ≥ EY
2. Varianz:
Def.: Als Varianz bezeichnen wir die mittlere (erwartete)
quadratische Abweichung einer ZG X von ihrem
Erwartungswert:
D2X = E [X - EX]2
∞
2
(
x
−
EX
)
⋅ pi
∑ i
=
, X diskr. ZG
i =1
D2X ∈ R
+∞
2
(
x
−
EX
)
⋅ fX ( x)dx
∫
, X stet. ZG
−∞
D2 X
heißt Standardabweichung.
Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.)
⇒ D2X = 2,92
Satz: Eigenschaften der Varianz: (Fehlerfortpflanzung)
Für die Varianz von diskreten oder stetigen Zufallsgrößen X,
X1, …, Y, Z und Konstanten a,b ∈R gilt:
1. D2X ≥ 0,
D2X = 0 ⇔ P(X = EX) = 1
2. D2X = EX2 – [EX]2
(Verschiebungsregel)
3. D2 [aX + b] = a2 • D2X
(lin. Transformation)
4. X1,X2 unabhängig ⇒
D2 [X1 + X2] = D2 [X1 - X2] = D2X1 + D2X2 (Summe, Differenz)
und für Y =X1• X2 und Z = X1/X2
2
2
 D2 Y   D X1   D X2
 +

 ≈
 EY   EX1   EX2

 
 
2
2
2
(Produkt und Quotient)
  D2 Z 
 ≈

  EZ 

 
2
(Quadr. Variationskoeffizienten addieren sich!)
Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln,
X:=„ Augensumme“, X = X1 + X2
D2X = D2 [X1 + X2] = D2 X1 + D2 X2 = 5,83
Normierung und Standardisierung:
Def.: Eine ZG X heißt normiert, wenn D2X = 1 gilt.
Def.: Eine ZG X heißt standardisiert, wenn D2X = 1 und
EX = 0 gilt.
Satz: Für eine beliebige ZG X gilt:
1.
2.
Y=
Y=
X
D2 X
X − EX
2
D X
ist eine normierte ZG und
ist eine standardisierte ZG.
2.3 Spezielle Verteilungen von Zufallsgrößen
Wahrscheinlichkeitsverteilungen
Diskrete Verteilungen
- 2- Pkt.- Verteilung
(Münzwurf)
- Gleichverteilung
(Bsp. 1: Würfeln mit 1 Würfel)
- Binomialverteilung
(Qualitätskontrolle)
Stetige Verteilungen
- Gleichmäßig stet. Verteilung
- Normalverteilung und
logarithmische NV
- Exponentialverteilung
(Wachstumsprozesse)
- Hypergeometrische Vert.
- Weibullverteilung
(Abnutzungsprozesse)
- Poissonverteilung
- Prüfvert. (t-, χ2-, F- Vert.)
1. Binomialverteilung
(Anw. bei Qualitätskontrolle)
Beispiele:
- Zuf. Anzahl der in einem bestimmten Zeitabschnitt ausfallenden Maschinen von insgesamt n Maschinen gleicher
Bauart, wenn die Wahrscheinlichkeit, dass eine Maschine
ausfällt, p ist.
- Zuf. Anzahl nicht qualitätsgerecht produzierter Joghurtbecher von insgesamt n Joghurtbechern, wenn die Wahrscheinlichkeit, einen Ausschußbecher zu produzieren, p ist.
- Allgemein: X := „Anzahl der beobachteten (gezogenen)
Objekte aus einer Menge von n Objekten
mit der Eigenschaft A“
Bernoullisches Versuchsschema (Urnenmodell mit
Zurücklegen):
- Urne enthält weiße und schwarze Kugeln, die Wahrscheinlichkeit, eine weiße Kugel zu ziehen (Ereignis A), sei P(A) = p.
- n- malige Entnahme einer Kugel und Feststellen, ob Kugel
weiß (A) oder schwarz ( A ) war, jeweils Zurücklegen der
Kugel.
(Durch Zurücklegen wird Unabhängigkeit der Einzelziehungen erreicht, die Wahrscheinlichkeit, eine weiße Kugel
zu ziehen, bleibt gleich!)
- Von Interesse: Wahrscheinlichkeit, bei n Entnahmen k weiße
Kugeln zu ziehen.
- Bei Qualitätskontrolle: A :=„ Entnahme eines guten Teils“
A :=„ Entnahme eines Ausschußteils“
Def.: Eine diskrete ZG X heißt binomialverteilt mit den
Parametern n und p (X ~ B(n,p)), wenn sie die Wahrscheinlichkeitsfunktion
n k
P( X = k ) =   ⋅ p ⋅ (1 − p)n−k
k 
,k = 0,…,n
besitzt.
Bem.: - Die Binomialverteilung wird durch die Parameter n
und p eindeutig bestimmt.
- EX = n • p
- D2X = n • p • (1-p) = n • p • q
- P(X ≤ k) = P(X=0)+…+P(X=k) =
n i
n−i


⋅
p
⋅
(
1
−
p
)
∑
i
i =0  
- P(X ≥ k) = P(X=k)+…+P(X=n) =
n i
n−i


⋅
p
⋅
(
1
−
p
)
∑
i
i=k  
k
P(X ≥ 1) = 1- P(X=0)
n
Bsp.: 10 Äpfel einer Partie werden untersucht. Es ist bekannt,
dass 10% der Äpfel angeschlagen sind.
a) Wie groß ist die Wahrscheinlichkeit, 3 angeschlagene
Äpfel in der Stichprobe zu finden?
b) Wie groß ist die Wahrscheinlichkeit, höchstens einen
angeschlagenen Apfel in der Stichprobe zu finden?
Lösung:
geg.: n = 10,
P(A)= p = 0,1
 10 
a) P(X = 3) =   ⋅ 0,13 ⋅ (1 − 0,1)10 − 3 = 0,057
3
b) P(X ≤ 1) = P(X = 0) + P(X = 1) = 0,736
  10 
   10 

0
10
1
9
   ⋅ 0,1 ⋅ 0,9  +    ⋅ 0,1 ⋅ 0,9  = 0,910 + 0,9 9
 0
  1

 
  

2. Normalverteilung
(Gauss, 1809: „Theorie der
Beobachtungsfehler“)
Hintergrund:
Führt man wiederholt Messungen an ein und demselben
Objekt (Fettgehalt in Milchprobe) durch, so ergibt auf Grund
zufälliger Einflüsse nicht jede Messung den gleichen Wert. Es
zeigt sich aber, dass bei häufiger Wiederholung der Messung
die erhaltenen Werte kleinere oder größere Abweichungen
voneinander und von einem bestimmtem „wahren“ Wert, dem
Erwartungswert, aufweisen.
Beispiele:
● zuf. Mess- und Beobachtungsfehler
● Fett- und Eiweißgehalt von Milch, Stammwürzegehalt von
Bier, Saccharosegehalt von Zuckerrüben
Def.: Eine stetige ZG X heißt normalverteilt mit den
Parametern µ und σ2 (X ~ N (µ, σ2)), wenn ihre
Dichtefunktion die Form
fX ( x ) =
1
⋅e
2π ⋅ σ
2
(
x −µ )
−
2 ⋅σ 2
x∈R,
hat.
Satz: Eigenschaften der Dichtefunktion der NV
1. fX(x) ≥ 0
x∈R
2. fX besitzt an der Stelle x = µ ein Maximum und
1
fX (µ) =
2π ⋅ σ
3. fX besitzt an den Stellen x1 = µ -σ und x2 = µ + σ
zwei Wendepunkte
4. fX ist symmetrisch bez. µ: fX(µ - x) = fX(µ + x)
Dichtefunktion der Normalverteilung
0,8
0,1
4,1
4,2
4,0,5
0,2
Dichte
0,6
0,4
0,2
fX(x; 0, 1) = ϕX(x)
0
-10
-6
-2
2
6
10
14
x
Verteilungsfunktion
Verteilungsfunktion der Normalverteilung
Standard- Normalverteilung
X ~ N (0, 1)
1
0,1
4,1
4,2
4,0,5
0,2
0,8
0,6
FX(x; 0, 1) = ΦX(x)
0,4
0,2
ist tabelliert!
0
-10
-6
-2
2
x
6
10
14
Bem.: - Für eine normalverteilte ZG X gilt:
EX = µ und D2X = σ2
- Der Parameter µ bedeutet : Verschiebung des
Symmetriezentrums
Der Parameter σ bedeutet: Streckung oder
Stauchung der Dichte
x
- Die Verteilungsfunktion: FX (x)= P(X ≤ x) =
aber:
∫ f (t )dt
X
−∞
Integral nicht geschlossen integrierbar!
⇒ Standardisierung der normalverteilten ZG X und
Bestimmen der standardisierten Verteilungsfunktion Φ (ist tabelliert!) !
Satz: Eine stet. ZG X mit X ~ N(µ, σ2), kann durch Y = (X-µ)/ σ
standardisiert werden, so dass Y ~ N(0, 1), und man
erhält:
fX(x) = (1/σ) • ϕY(y) und FX(x) = ΦY(y)
(Zusammenhang von Dichte- und Verteilungsfunktionen)
N(0,1)
0,4
0,1
Dichte
0,3
0,2
0,1
0
-5
-3
-1
1
3
x
ϕY(-y) = ϕY(y)
5
Verteilungsfunktion der Normalverteilung
Verteilungsfunktion
Dichtefunktion der Normalverteilung
N(0,1)
1
0,1
0,8
0,6
0,4
0,2
0
-5
-3
-1
1
3
5
x
ΦY(-y) = 1- ΦY(y)
Bestimmen von Intervallwahrscheinlichkeiten:
X−µ x −µ

1. P( X ≤ x) = FX ( x) = P
≤
 = P( Y ≤ y) = Φ Y ( y)
σ 
 σ
2. P( X > x) = 1 − P( X ≤ x) = 1− FX ( x) =
 X−µ x −µ
1− P
≤
 = 1− P( Y ≤ y) = 1− Φ Y ( y)
σ 
 σ
3. P( x1 < X ≤ x 2 ) = FX ( x 2 ) − FX ( x1 )
X−µ


= P y1 < Y =
≤ y 2  = Φ Y ( y 2 ) − Φ Y ( y1 )
σ


 x1 −µ
y1 = 

 σ 
 x2 −µ
y2 = 

 σ 
4. Spezialfall von 3.
Seien x1 = µ - kσ und x2 = µ + kσ
Dann gilt: P(|X - µ|) ≤ kσ) = Φ(k) - Φ(-k) = 2 Φ(k) – 1
Bem.: Betrachtet man k = 1,2 und 3, so ergeben sich
folgende Wahrscheinlichkeiten:
P(|X - µ|) ≤ 1σ) = 0,638
P(|X - µ|) ≤ 2σ) = 0,955
P(|X - µ|) ≤ 3σ) = 0,997
3σ
σ- Regel
d.h. es ist praktisch „fast sicher“, dass eine normalverteilte ZG X Werte zwischen µ - 3σ und µ - 3σ
annimmt.
Bsp.: Eine Maschine füllt Tüten. Die Masse der Tüten
(ZG X) sei normalverteilt mit X~ N(31,4; 0,04) [g].
Eine Tüte ist normgerecht gefüllt, wenn X Werte im
Intervall [30,9; 31,7] annimmt.
a) Wieviel % der Tüten sind normgerecht gefüllt?
b) Wieviel % der Tüten sind nicht normgerecht gefüllt?
c) Wieviel % der Tüten sind unterdosiert?
d) Wieviel % der Tüten sind überdosiert?
e) Wie müßte die untere Grenze des Toleranzbereiches
xu sein, damit nur 0,2 % der Tüten unterdosiert sind?
f) Welchen Wert müßte die Standardabweichung σ
haben, damit bei ursprünglichem Toleranzbereich nur
2% der Tüten unterdosiert sind?
Lösung:
a) P(A) = P(30,9 < X ≤ 31,7) = ΦY(1,5) - ΦY(-2,5) = 0,93319(1-0,99379) = 0,92698 ≈ 92,7 %
b) P( A ) = 1- P(A) = 7,3 %
c) P(X ≤ 30,9) = ΦY(-2,5) = (1-0,99379) = 0,00621 ≈ 0,6 %
d) P(X > 31,7) = 1- P(X ≤ 31,7) = 1 - ΦY(1,5) = 0,06681 ≈ 6,7 %
e) P(X ≤ xu) = 0,002
 x u − 31,4 
1-0,002 = 0,998
 = 0,002
= ΦY 
 0,2 
→ ΦY(2,88) = 0,998
 x u − 31,4 
→ ΦY(-2,88) = 0,002 → 
 = −2,88
 0,2 
→ xu = 30,824
f) analog zu e)
 30,9 − 31,4 
 30,9 − 31,4 
 = −2,88
ΦY 
 = 0,002 → 
σ


σ
→ σ = 0,1736


2.4 Prüfverteilungen
Prüfverteilungen sind Verteilungen stetiger Zufallsgrößen, die
insbesondere in der induktiven Statistik eine Rolle spielen.
Für die praktische Durchführung von Prüfverfahren benötigt
man insbesondere die Quantile dieser Prüfverteilungen.
Def.: Sei X eine stetige ZG mit der Verteilungsfunktion FX
und p∈(0,1) ⊆ R.
Dann heißt eine Zahl xp Quantil der Ordnung p, wenn
Fx(xP) = P(X ≤ xP) = p gilt.
Bem.: Ein Quantil der Ordnung p = ½ heißt Median
χ² - Verteilung
(Helmert, 1876)
Chi-Quadrat Verteilung
0,1
FG
10
20
30
50
100
Dichte
0,08
0,06
(n − 1)S ²
W =
~ χ ²( m )
σ²
0,04
Freiheitsgrad m = n-1
0,02
0
0
30
60
90
120
150
180
x
Das Quantil der Ordnung p der χ²-Verteilung
mit m Freiheitsgraden wird mit χ²p;m
bezeichnet.
t-Verteilung
(„STUDENT“ , W. Gosset)
t- Verteilung
0,4
FG
10
20
30
50
100
Dichte
0,3
0,2
X −µ
t=
⋅ n ~ t(m )
S
0,1
0
-6
-4
-2
0
2
4
6
x
Verteilungsfunktion
- Das Quantil der Ordnung p der
t- Vert. mit m FG- en wird mit
tp;m bezeichnet.
- Die t- Verteilung ist symmetrisch
und konvergiert für m→∞ gegen
die Standardnormalverteilung
t- Verteilung
1
FG
10
20
30
50
100
0,8
0,6
0,4
0,2
0
-6
-4
-2
0
x
2
4
6
F-Verteilung
(Fisher)
F- Verteilung
FG
10,10
20,20
30,30
50,50
100,100
2,4
Dichte
2
1,6
1,2
S12
F = 2 ~ F(m1, m2 )
S2
0,8
0,4
0
0
1
2
3
4
5
x
Das Quantil der Ordnung p der
F-Verteilung mit m1 und m2
FG- en wird mit Fp;m1;m2
bezeichnet.
Verteilungsfunktion
F- Verteilung
1
FG
10,10
20,20
30,30
50,50
100,100
0,8
0,6
0,4
0,2
0
0
1
2
3
x
4
5
3. Schließende
Methoden
/9/ Stahel, W. (1995)
Obj. Realität
Merkmale
Stat. Modell
Zufallsgröße X mit best.
Vert. oder Menge aller
Real. der ZG, d.h. Menge
E aller Versuchsausgänge:
x1, x2, ...
Menge aller möglichen
Stichproben vom
Umfang n:
X = (X1, ..., Xn)
Messwerte
= GG
= Mathem.
Stichprobe
Realisierungen der ZG X: = Konkrete
x = (x1, ..., xn)
Stichprobe
1- Stichprobenproblem:
Konkrete Stichprobe
(x1, …, xn)
Schätzwert
(Realisierung)
Mathematische Stichprobe
(X1, …, Xn)
Grundgesamtheit
Schätzfunktion
X
(Stichprobenfunktion)
F̂n ( x )
Fn ( x)
1 n
x = ∑ xi
n i =1
1 n
X = ∑ Xi
n i =1
FX ( x )
µ
bei X~N(µ, σ2)
ρ0
x mod
~
X 0 ,5
X mod
Mod
1 n
s =
( x i − x )2
∑
n − 1 i=1
1 n
S =
( Xi − X)2
∑
n − 1 i=1
σ2 bei X~N(µ, σ2)
mad
g1
g2
…
MAD
~
x 0 ,5
2
2
G1
G2
…
MADth
γ1
γ2
…
Wichtigste Aufgabe der Statistik:
Aus den in der Stichprobe enthaltenen Informationen
Aussagen über die Grundgesamtheit zu gewinnen!
Es treten dabei 2 wichtige Probleme auf:
1. Schätzen der Verteilung der GG bzw. von Parametern
2. Prüfen von Hypothesen über die Verteilung der GG bzw.
von Parametern
3.1 Punktschätzungen und Konfidenzintervalle
Wir betrachten Punkt- und Intervallschätzungen für
Parameter von Zufallsgrößen.
Auf der Basis konkreter Stichproben führen:
Punktschätzungen
⇒ Näherungswerten und
Intervallschätzungen ⇒ Näherungsintervallen
für einen unbekannten Parameter.
1. Punktschätzungen
Bei Punktschätzungen wird ein einziger aus der Stichprobe
gewonnener Wert zur Schätzung des unbekannten
Parameters herangezogen.
Ein Punktschätzer ist eine Stichprobenfunktion T(X1,…, Xn)
der math. Stichprobe und ein Schätzwert ist eine Realisierung
t(x1,…, xn) auf der Basis der konkreten Stichprobe.
Bsp.: Unter der Voraussetzung, dass die GG X normalverteilt
ist mit EX = µ und D2X = σ2 , haben die Punktschätzer
1 n
1 n
2
2
S =
(
X
−
X
)
und
X = ∑ Xi
∑
i
n − 1 i=1
n i=1
die besten statistischen Eigenschaften
(Erwartungstreue, Konsistenz, Effizienz, Suffizienz)!
Man erhält Punktschätzer mit folgenden
Schätzmethoden:
● Momentenmethode
● Maximum Likelihood- Methode (MLM)
● Methode der kleinsten Quadrate (MkQ)
Die Realisierungen x und s2 stellen die zugehörigen
Punktschätzwerte (reelle Zahlen) aufgrund einer
konkreten Stichprobe dar.
Veranschaulichung von Treff- und Wiederholgenauigkeit
Parameter Θ
(Schießscheibe)
Treff- u. Wieder- Treffgenauigkeit
holungsgenauig- niedrig,
keit hoch
Wiederholungsgenauigkeit hoch
Treffgenauigkeit
hoch,
Wiederholungsgenauigkeit
niedrig
Treff- u. Wiederholungsgenauigkeit niedrig
Bem.: Die Treffgenauigkeit (Erwartungstreue) eines Schätzers
ist hoch (Bias klein), wenn die Schätzwerte wiederholter
Schätzungen den Parameter im Mittel gut treffen.
Die Wiederholungsgenauigkeit (Präzision) ist hoch
( D 2 θ̂ klein), wenn die Schätzwerte wiederholter
Schätzungen nahe beieinander liegen.
2. Konfidenzintervalle (Vertrauensintervalle)
● Mit einer Punktschätzung gewinnen wir keine
Aussage über die Genauigkeit einer solchen Schätzung.
● Die Abweichungen einzelner Punktschätzwerte vom wahren
Wert des Parameters können z.B. dann recht groß sein,
wenn der Stichprobenumfang klein ist.
● Mit Hilfe einer Intervallschätzung können wir uns eine Vorstellung von der Genauigkeit der Schätzung verschaffen.
Def.: Ein Konfidenzintervall ist ein Intervall, dass einen
unbekannten Parameter der Grundgesamtheit mit einer
vorgegebenen Wahrscheinlichkeit (1-α) enthält.
Bsp.: Konfidenzintervall für den Erwartungswert µ einer
normalverteilten GG
Sei X ~ N(µ, σ2) eine normalverteilte ZG und (X1, ..., Xn) eine
mathematische Stichprobe aus der GG X.
1. Fall: Die Varianz σ2 der normalverteilten GG sei bekannt
Für den unbekannten Parameter µ ist eine Konfidenzschätzung anzugeben.
Dann hat das Konfidenzintervall für µ die Form:


σ
σ
= P X −
⋅z α < µ < X+
⋅ z α  = 1 − α
n 1− 2
n 1− 2 

wobei z α das
1−
ist.
2
(1−
α
)
2
- Quantil der Standardnormalverteilung
Jede konkrete Stichprobe liefert uns dann ein realisiertes
z α
Konfidenzintervall:
1−
1-α
α
z
2


σ
σ
⋅ z α; x +
⋅z α
x −
n 1− 2
n 1− 2 

0,95
0,05
1,96
0,99
0,01
2,58
1-α
1,64
2,33


α
Φ z α  = 1−
2
 1− 2 
Dichtefunktion der Standard- Normalverteilung
0,4
Dichte
0,3
1-α
0,2
α/2
α/2
0,1
0
-5
-3
-1
z
α
2
= −z
1−
1
z
α
2
z
3
1−
5
α
2
1−
α
-Quantil der Standard- NV
2
Bem.: Die Breite dieses Konfidenzintervalls für den Erwartungswert µ beträgt 2d und ist von α, n, σ und der
Verteilung des zugehörigen Schätzers abhängig.
σ
2d = 2
⋅z α
1−
n
2
Je größer α
desto kleiner das Konfidenzintervall
Je größer n
desto kleiner das Konfidenzintervall
Die Breite des Konfidenzintervalls ist hier ein Maß für die
Genauigkeit der Schätzung von µ und die
Irrtumswahrscheinlichkeit α ein Maß für das Risiko.
⇒ Planung des Stichprobenumfangs:
geg.: halbe Breite des Konf.intervalls d,
2
2
σ
Varianz σ ,
→ n = 2 ⋅ z 2 1− α
2
d
Konfidenzniveau (1-α)
2. Fall: Die Varianz σ2 der normalverteilten GG sei nicht
bekannt und muß geschätzt werden.
Für den unbekannten Parameter µ ist eine Konfidenzschätzung anzugeben.
Wir wählen als Punktschätzer:
für den Erwartungswert µ:
1 n
X = ∑ Xi
n i=1
für die Varianz σ2
n
1
2
S2 =
(
X
−
X
)
∑ i
n − 1 i=1
und
Dann hat das Konfidenzintervall für µ die Form:


S
S
P X −
⋅t α < µ < X+
⋅ t α  = (1 − α)
n 1− 2 ;m
n 1− 2 ; m 

wobei t 1− α ;m das
2
(1−
α
)
2
- Quantil der t- Verteilung ist.
Jede konkrete Stichprobe liefert uns wieder ein realisiertes
Konfidenzintervall:


s
s
x −

n
⋅t
α
1− ; m
2
;x +
n
⋅t
α
1− ; m
2


s
d=
⋅t α
n 1− 2 ;m
Veranschaulichung analog
wie beim 1. Fall!
Toleranzintervall: Anwendung bei der Kontrollkartentechnik:
( x - Kontrollkarte)
Mittelwert liegt außerhalb
des Toleranzbereiches!
µ0 +
S
⋅t α
n 1− 2;m
Toleranzbereich
µ0
µ0 −
s
⋅t α
n 1− 2;m
xi
x1
x3
x5
x7
3.2 Statistische Tests
Es werden zwei Hypothesen für die GG aufgestellt:
● die Nullhypothese H0
(Annahme über die Verteilung
oder unbekannte Parameter
in der Grundgesamtheit) und
● die Alternativhypothese HA (wird angenommen, falls
H0 verworfen wird)
Durch einen statistische Test wird eine Entscheidung
zwischen beiden Hypothesen auf Grund einer Stichprobe
herbeigeführt.
Bei der Entscheidung für eine der beiden Hypothesen durch
einen Test kann man zwei Fehler begehen:
- Fehler 1. Art: Entscheidung für HA, obwohl H0 richtig ist und
- Fehler 2. Art: Entscheidung für H0, obwohl HA richtig ist
Betrachten wir ein paar Beispiele:
Bsp. 1: Es ist auf Grund einer Stichprobe zu prüfen, ob die
Länge von Escherichia Coli- Zellen eines best.
Bakterienstammes normalverteilt ist.
H0: FX = F0X
HA: FX ≠ F0X (F0 - Vert.fkt. der Normalvert.!)
⇒
Test auf Normalverteilung
Bsp. 2: Der Wassergehalt von Butter X sei normalverteilt. Auf
Grund einer Stichprobe aus einer Molkerei soll geprüft
werden, ob der erhaltene Mittelwert mit dem Qualitätssollwert µ0 = 15% verträglich ist, d.h.
ob die Abweichung zwischen x und µ0 nur zufällig ist
oder ob stat. signifikante Unterschiede vorliegen.
H0 : µ = µ0 = 84%
⇒
HA: µ ≠ µ0 = 84%
Mittelwerttest für ein Einstichprobenproblem
Bsp. 3: Eine sehr zeitaufwendige Standardmethode M1 zur
Bestimmung der Trockenmasse von Kondensmilch soll
durch eine Schnellmethode M2 ersetzt werden. Auf der
Basis zweier Stichproben ist nun zu prüfen, ob die
Mittelwerte und Varianzen beider Methoden übereinstimmen oder ob es signifikante Unterschiede gibt.
H0: µ1 = µ2
HA: µ1 ≠ µ2
(Vor.: NV!)
HA: σ12 ≠ σ22
H0: σ12 = σ22
⇒ Mittelwert- und Varianztest für ein 2-Stichprobenproblem
Bsp.4: Es ist zu prüfen, ob in einer Stichprobe ein stark nach
oben (bzw. nach unten) abweichender Wert als
„Ausreißer“ zu betrachten ist.
(Vor.: NV!)
H0: xmax ist kein Ausreißer
⇒
Ausreißertest
HA: xmax ist ein Ausreißer
Mögliche Entscheidungen bei einem stat. Test:
Realität
H0 richtig
Entscheidung für H0
HA wird abgelehnt
richtige Entscheidung
Sicherheitswahrsch. (1- α)
HA richtig
Fehler 2. Art
β
Entscheidung für HA
H0 wird abgelehnt
Fehler 1. Art
Irrtumswahrsch. α
richtige Entscheidung
Güte des Tests (1- β)
Bei zwei Entscheidungen entscheidet man sich richtig, jeweils
mit den Wahrscheinlichkeiten (1- α) bzw. (1- β) .
Führt ein Test nun zur Ablehnung von H0, so ist diese
Entscheidung für HA mit einer Irrtumswahrscheinlichkeit von α
behaftet und man sagt:
Das Ergebnis ist signifikant zum Signifikanzniveau α.
Bem.: 1. Beim Signifikanztest (auch α- Test genannt) wird
nur der Fehler 1. Art durch die Vorgabe von α
kontrolliert, während der Fehler 2. Art, der mit der
(unbekannten) Wahrscheinlichkeit β auftritt, unberücksichtigt bleibt.
Daher formuliert man die Hypothesen so, dass der
Fehler 1. Art der in seinen Folgen schwerwiegendere
ist, den man auf jeden Fall vermeiden möchte!
2. Beide Fehler kann man nicht gleichzeitig minimieren.
Denn: Je kleiner der eine Fehler ist, desto größer wird
der andere.
Aber: Beide Fehler werden bei der Planung des
Stichprobenumfanges mit berücksichtigt.
3. Das Signifikanzniveau α ist unter Beachtung der
konkreten Aufgabenstellung und insbesondere der
Folgen des Fehlers 1. Art festzulegen.
Übliche Werte für α sind: 0,1; 0,05; 0,01; 0,005; 0,001.
Arten statistischer Tests
Parametrische Tests
Verteilungsfreie
(nichtparametrische) Tests
Ann. eines best. Verteilungstyps (z.B. NV!) für
die GG,
Keine Ann. eines best. Verteilungstyps für die GG, nur
Stetigkeit oder Diskretheit,
Prüfung von Hypothesen über
die Parameter (z.B.
Erwartungswert und Varianz)
Prüfung von Hypothesen über
die Art der Verteilung (z.B. NV
durch Anpassungstests) oder
Parameter (z.B. Median)
Tests basieren oft auf Rangstatistiken
Allgemeine Vorgehensweise bei einem Parametertest:
1. Formulierung der Aufgabenstellung, einschließlich aller
Voraussetzungen über die GG
2. Aufstellen der Null- und Alternativhypothese H0 und HA
3. Wahl der Stichprobenfunktion T (Teststatistik) auf der Basis
der math. Stichprobe und Angabe ihrer Verteilung bei
richtiger Nullhypothese
4. Berechnung eines Wertes der Teststatistik t auf der Basis
einer konkreten Stichprobe
5. Wahl des kritischen Bereiches K für vorgegebene
Irrtumswahrscheinlichkeit α
6. Testentscheidung
Wenn t∈K → Ablehnung von H0 u. Annahme von HA
Wenn t∈K → Annahme von H0 u. Ablehnung von HA
1. Vergleich der Parameter einer NV mit Sollwerten Einstichprobentest
Annahme: Sei X~N(µ, σ2), (X1, ..., Xn) math. Stichprobe
aus GG X
3.2.1.1. Vergleich des Mittelwertes einer NV mit einem
Sollwert (Einstichproben- Test)
1. Fall: σ2 bekannt
(Gauß- oder Z- Test)
1. Kann auf Grund einer Stichprobe geschlossen werden,
dass diese aus einer normalverteilten GG stammt, deren
Erwartungswert µ gleich einem vorgegebenen Sollwert µ0 ist?
Mit anderen Worten: Ist x mit µ0 verträglich oder
a) gibt es signifikante Abweichungen
b) ist der MW echt größer als µ0
c) ist der MW echt kleiner als µ0?
→ 2- seit. Test
→ 1- seit. Test
Vor.: X~N(µ, σ2), σ2 ist bekannt
2. Null- und Alternativhypothese
b) H02: µ ≤ µ0
HA2: µ > µ0
a) H01: µ = µ0
HA1: µ ≠ µ0
2-seit. Fragestellung
c) H03: µ ≥ µ0
HA3: µ < µ0
1-seit. Fragestellung
3. Wahl der Teststatistik
Wählen X als geeigneten Punktschätzer für µ und
standardisieren:
X
→
X − µ0
Z=
⋅ n ~ N( 0,1)
σ
Teststatistik
(unter H0!)
1 n
σ2
da X = ∑ X i ~ N(µ, )
n i=1
n
4. Berechnen des Wertes der Teststatistik
x − µ0
z=
⋅ n
σ
5. Wahl des kritischen Bereiches (Verwerfungsbereich) K
Der krit. Bereich ist abhängig von der Irrtumswahrscheinlichkeit α und der Art der Alternativhypothese.
P(Z∈K / H0) = α
und
P(Z∈K / H0) = (1- α)
a) HA1: µ ≠ µ0

 




K =  − ∞; z α  ∪  z α ;+∞
2


 1− 2
Dichtefunktion der Standard- Normalverteilung
0,4
1-α
Dichte
0,3
0,2
α/2
α/2
0,1
kritische Grenzen


K =  z / | z |> z α 
1−
2 

0
-5
-3
zα
-1
2
1
z
z
1−
3
5
α
2
Ann.bereich H0
b) HA2: µ > µ0
c) HA3: µ < µ0
Dichtefunktion der Standard- Normalverteilung
Dichtefunktion der Standard- Normalverteilung
0,4
0,4
0,3
1-α
Dichte
Dichte
0,3
0,2
α
0,1
1-α
0,2
α
0,1
0
0
-5
-3
-1
1
z
3
5
z1−α
K = (z1− α ;+∞ ) = {z / z > z1− α }
-5
-3
-1
zα
1
3
5
z
K = (− ∞; z α ) = {z / z < z α }
6. Testentscheidung
H0: µ = µ0 wird abgelehnt, wenn
a)
z > z
α
1−
2
b)
z > z1−α
c)
z < zα
Analog gilt:
H0 wird abgelehnt, wenn der zu z gehörige P-Wert < α ist.
P heißt „Probability value“ oder „Grenzniveau“ oder „Überschreitungswahrscheinlichkeit“. Er ermöglicht eine
differenziertere Testentscheidung.
Häufig interpretiert man den P-Wert wie folgt:
Wenn P ≥ 0,05
Wenn 0,05 > P ≥ 0,01
Wenn 0,01 > P ≥ 0,001
Wenn 0,001 > P
→
→
→
→
kein stat. sign. Unterschied
stat. sign. Unterschied
*
stark sign. Unterschied
**
sehr stark sign. Unterschied ***
Bem.: 1. Falls die Nullhypothese wahr ist, ergeben sich
folgende Entscheidungsbereiche:
a) HA1: µ ≠ µ0
b) HA2: µ > µ0
1-α
1-α
Ann.bereich von H0
Ann.bereich von H0
Die schraffierten Flächen α (Irrtumswahrscheinlichkeit)
geben die Wahrscheinlichkeiten an, dass die Nullhypothese
fälschlicherweise verworfen wird.
Bem.: 2. Falls die Nullhypothese falsch ist und µ = µ1 > µ0,
ergeben sich folgende Entscheidungsbereiche:
a) HA1: µ ≠ µ0
b) HA2: µ > µ0
β
α/2
Ann.bereich von HA
β
α
Ann.bereich von HA
Die schraffierten Flächen (1-β) (Trennschärfe, Macht eines
Tests) geben die Wahrscheinlichkeiten an, dass die wahre
Alternativhypothese durch den Test auch angenommen wird.
Die Macht (1-β) sinkt, je kleiner α wird.
2. Fall: σ2 unbekannt → Schätzen durch s2
(t- Test)
3. Teststatistik unter H0:
X − µ0
t=
⋅ n ~ t ( n − 1)
S
4. Wert der Teststatistik:
x − µ0
t̂ =
⋅ n
s
5. Kritischer Bereich K:
a) HA1: µ ≠ µ0

 
 

K =  − ∞; t α  ∪  t α ;+∞ = t̂ / | t̂ |> t α 
,m
1− ,m
2 
2 

 1− 2 ,m
 
b) HA2: µ > µ0
K = (t 1− α ,m ;+∞ ) = t̂ / t̂ > t 1− α ,m
c) HA3: µ < µ0
K = (− ∞; t α ,m
{
}
) = {t̂ / t̂ < t }
α ,m
6. Testentscheidung
H0: µ = µ0 wird abgelehnt, wenn
a) | t̂ |> t
t̂ > t 1− α ,m
b)
α
1− ,m
2
c)
t̂ < t α,m
bzw. wenn der zu t̂ gehörige P-Wert < α ist.
b)
Dichtefunktion der t- Verteilung
FG:
10
0,4
Dichte
0,3
P-Wert
0,2
Hier:
Annahme
von H0 !
α
0,1
0
-6
-4
-2
0
t
t̂
Ann.bereich vonH0
2
4
6
t1−α,10
(1-α)- Quantil der t- Vert. zum FG 10
Ein Test ist von folgenden Größen abhängig:
● Mindestdifferenz d (Genauigkeitsvorgabe)
● Wahrscheinlichkeit für den Fehler 1. Art α
● Schranke für die Wahrscheinlichkeit für den Fehler 2. Art β0
● Varianz σ2 (1. Fall) bzw. s2 (2. Fall)
a)
b)
Verlauf der Gütefunktion (Macht, Power) eines zweiseitigen
Tests (für kleinen und großen Stichprobenumfang) und
eines 1-seitigen Tests
Bsp.: Wassergehalt von Butter (Gauß- Test)
1. Für die Zufallsgröße X – Wassergehalt [%] von Butter sei
NV-Annahme gerechtfertigt. Es liegt eine Stichprobe vom
Umfang 10 vor und es ist durch einen Test zu prüfen, ob
diese Stichprobe aus einer GG mit dem Erwartungswert
µ0 = 15,2 [%] (Sollwert) stammt. Die Varianz σ2 = 0,04 [%]2
kann als bekannt vorausgesetzt werden.
a) Weicht x signifikant von µ0 ab? oder
b) Ist x signifikant größer als µ0?
Die Messwerte seien: 15,05 15,52 15,44 15,35 15,24
14,89 15,47 15,28 15,18 15,39
2. Hypothesen: a) H01: µ = µ0
HA1: µ ≠ µ0
b) H02: µ ≤ µ0
HA2: µ > µ0
X − µ0
Z=
⋅ n ~ N(0,1)
σ
x − µ0
4. Wert der Teststatistik: z =
⋅ n = 1,28
σ
3. Teststatistik:
x = 15,28[%]
5. Kritischer Bereich K:
a)

 

K =  − ∞; z α  ∪  z α ;+∞
2

 1− 2



K =  z / | z |> z α 
1−
2 

α = 0,05 →
z
α
1−
2
b)
K = (z1− α ;+∞ )
K = {z / z > z1− α }
z α = 1,645
= 1,96
6. Testentscheidung:
| z |= 1,28 < z
α
1−
2
= 1,96
z
<
z1−α = 1,645
Ergebnis:
Für α = 0,05 wird H0 beibehalten, sowohl bei der 2- seitigen
als auch bei der 1- seitigen Fragestellung.
D.h.: Abweichungen bzw. eine Überschreitung des
Sollwertes sind nicht feststellbar.
Bem.: Wäre die Varianz σ2 = 0,04 [%]2 nicht bekannt, dann
müsste sie durch s2 geschätzt werden (t- Test, 2. Fall)
3. Teststatistik:
t=
X − µ0
⋅ n ~ t(m)
S
4. Wert der Teststatistik:
x − µ0
t̂ =
⋅ n = 1,2934
s
x = 15,281 [%]
5. Kritischer Bereich K:
α = 0,05 →
6. Testentscheidung:
t
a)
α
1− ,m
2
=t
α
1− ,9
2
| t̂ |≤ t
n = 10
s = 0,198 [%]
b)
= 2,26
α
1 − ,m
2
t 1− α ,m = t 1− α ,9 = 1,83
t̂ = 1,29 ≤ t1− α,9
Ergebnis:
Für α = 0,05 sind Abweichungen bzw. eine Überschreitung
des Sollwertes nicht feststellbar.
Allgemeine Bemerkungen zu Hypothesentests
1. Erweist sich ein Unterschied als nicht signifikant, so sagt
das noch nicht, dass damit die Hypothese wahr ist.
Es sagt bloß: Die Hypothese steht zum Ergebnis der
Stichprobe nicht im Widerspruch.
2. Ist die Abweichung des wahren Parameters, z.B. µ, vom
Sollwert µ0 nur klein, wird das Ergebnis einer kleinen Stichprobe nur selten im Widerspruch zu µ0 stehen.
D.h., ob eine bestehende Abweichung von der Hypothese
erkannt wird oder nicht, hängt entscheidend von der Größe
der Stichprobe ab. Wollte man das Ergebnis „nicht
signifikant“ als eine Bestätigung der Nullhypothese auffassen,
so brauchte man bloß eine hinreichend kleine Stichprobe zu
wählen und könnte damit fast jede Nullhypothese bestätigen.
⇒ Als Nullhypothese wählt man daher stets das Gegenteil von
dem, was man beweisen möchte und versucht, es zu
widerlegen.
3. Eine Ablehnung von H0 und Annahme von HA bedeutet:
Wir können nicht sicher sein, uns richtig entschieden zu
haben, in Wirklichkeit könnte auch H0 wahr sein, dann
hätten wir jedoch H0 nur mit einer Wahrscheinlichkeit von
höchstens α (Wahrscheinlichkeit für Fehler 1. Art) durch den
Test abgelehnt, d.h. wir haben uns mit großer Sicherheit
richtig entschieden.
4. Eine Annahme von H0 bedeutet:
Falls in Wirklichkeit HA wahr sein würde, hätten wir einen
Fehler 2. Art begangen, deren Wahrscheinlichkeit durch den
Signifikanztest nicht kontrolliert wird. Sie lässt sich allerdings
durch die Gütefunktion bestimmen.
5. Es gilt nicht: Mit 95%-iger Sicherheit ist bei Ablehnung von
H0 HA wahr. Wir wissen nur, dass in 95% der Fälle die wahre
H0 durch den Test bestätigt wird und in 5% der Fälle nicht.
6. In zu kleinen Stichproben können selbst grosse, praktisch
bedeutsame Unterschiede oder Effekte nicht nachgewiesen werden, da sie sich nicht klar genug von den
zufälligen Fehlern abheben.
Mit grossen Stichproben kann man dagegen praktisch
unwichtige Unterschiede oder Effekte als “statistisch
signifikant” ausweisen.
⇒ “Praktische Relevanz” beachten und auf der Basis
von Vorgaben über die Wahrscheinlichkeiten für die
Fehler 1. u. 2. Art den Stichprobenumfang berechnen!
Übersicht über Parametertests (1- und 2- Stichprobenproblem)
Art des Tests H0 und HA Teststatistik
Vergleich des
Mittelwertes mit
einer Konstanten
a) 1-StichprobenGauß-Test
b) 1-Stichprobent-Test
H01: µ = µ0
HA1: µ ≠ µ0
H02: µ ≤ µ0
HA2: µ > µ0
H03: µ ≥ µ0
HA3: µ < µ0
a) σ bekannt
X − µ0
Z=
⋅ n ~ N(0,1)
σ
b) σ unbekannt
t=
Entscheidung
Annahme H0
P ≥ 0,05
Krit. Bereich
a) HA1:
K= (- ∞, z α )∪( z
2
1−
α
2
, ∞)
HA2: K = (z 1-α, ∞)
HA3: K= (- ∞, z α)
a) z ≤ z
z ≤ z1−α
z ≥ zα
2
t̂ ≤ t1−α,m
2
t̂ ≥ t α,m
HA2: K = (t1-α,m , ∞)
HA3: K= (- ∞, tα,m)
1-Stichprobenχ2- Test
H01: σ2 = σ02
HA1: σ2 ≠ σ02
(n − 1)S2
χ =
~ χ2 (m)
2
σ0
2
H02: σ2 ≤ σ02
HA2: σ2 > σ02
α
2
t̂ ≤ t α
X − µ0
1− ,m
⋅ n ~ t(m) b) HA1:
b)
2
S
K = (- ∞,t α )∪( t α , ∞)
,m
1− ,m
m = n-1
Vergleich der
Varianz mit einer
Konstanten
1−
HA1:
2
2
K = (- ∞,χ α2 ,m )∪( χ1− α2 ,m , ∞)
χ12−α,m
HA2: K = (
m = n -1
, ∞)
χ2α ≤ χˆ 2 ≤ χ2 α
2
,m
1− ,m
2
χˆ 2 ≤ χ12−α,m
Art des Tests
H0 und HA Teststatistik
a) σ1, σ2 bekannt
Vergleich von 2
Mittelwerten bei
unabhängigen
Stichproben
Z=
a) 2-StichprobenGauß-Test
b) 2-Stichprobent-Test
H01: µ1 = µ2
HA1: µ1 ≠ µ2
H02: µ1 ≤ µ2
HA2: µ1 > µ2
X1 − X 2
σ12 σ 22
+
n1 n 2
b) σ12, σ22
unbekannt, aber
σ12= σ22
t=
Sd =
Krit. Bereich
a) HA1:
K= (- ∞, z α )∪( z
α
1−
2
2
~ N(0,1)
Entscheidung
Annahme H0
P ≥ 0,05
a)
, ∞)
2
,m
b)
α
1− ,m
2
α
2
z ≤ z1−α
, ∞)
X1 − X 2
n1 ⋅ n 2
⋅
~ t(m) HA2: K = (t1-α,m , ∞)
Sd
n1 + n 2
(n1 − 1) S12 + (n 2 − 1) S 22
n1 + n 2 − 2
m = n1+n2 -2
1−
HA2: K = (z 1-α, ∞)
b) HA1:
K = (- ∞, t α )∪(t
z ≤z
m = n1+n2 -2
t̂ ≤ t
α
1− ,m
2
t̂ ≤ t1−α,m
Art des Tests
H0 und HA Teststatistik
Krit. Bereich
c) σ12, σ22
unbekannt, aber
σ12≠ σ22
c) HA1:
K= (- ∞, t α )∪( t
Vergleich von 2
Mittelwerten bei
unabhängigen
Stichproben
c) 2-Stichprobent-Test mit
WelchKorrektur
H01: µ1 = µ2
HA1: µ1 ≠ µ2
H02: µ1 ≤ µ2
HA2: µ1 > µ2
X1 − X 2
t=
2
1
2
2
S
S
+
n1 n 2
2-StichprobenF-Test
H02: σ11 ≤ σ22
HA2: σ11 > σ22
α
1− ,m
2
, ∞)
t̂ ≤ t
HA2: K = (t1-α,m , ∞)
α
1− ,m
2
t̂ ≤ t1−α,m
aber.: unterschiedliches m
im Vergleich zu b)!
1
c2
(1 − c ) 2
=
+
m n 2 − 1 n1 − 1
c=
H01: σ12 = σ22
HA1: σ12 ≠ σ22
c)
mit
und
Vergleich von 2
Varianzen bei
unabhängigen
Stichproben
~ t(m)
2
,m
Entscheidung
Annahme H0
P ≥ 0,05
s 22
n1
s12 s 22
+
n1 n 2
S12
F = 2 ~ F(m1, m2 )
S2
m1 = n1 – 1; m2 = n2 1
Vor.: s12 ≥ s22 , sonst
Stichproben vertauschen!
HA1:
K = (- ∞, Fα
2
∪( F
,m1,m2
α
1− ,m1,m2
2
HA2: K = (
Fα
)
2
,m1,m 2
≤ f ≤F
, ∞)
F1−α,m1,m2
, ∞)
f ≤ F1−α,m1,m2
α
1− ,m1,m 2
2
3.3 Varianzanalyse
- Die Varianzanalyse ermöglicht es, Unterschiede zwischen
den Erwartungswerten normalverteilter Zufallsgrößen
(hier: Faktoren) in mehr als zwei Gruppen (oder Stufen) zu
untersuchen. Sie ist damit eine Erweiterung des Mittelwertvergleichs (t- Test) von zwei auf mehr als zwei Gruppen.
- Je nach Anzahl der Faktoren unterscheidet man zwischen
einfaktorieller und mehrfaktorieller Varianzanalyse
- Bei VA- Modellen vom Typ I werden nur Faktoren mit festen
Stufen betrachtet.
- Sie heißt Varianzanalyse, weil geprüft wird, ob die
Variabilität zwischen den Gruppen größer ist als innerhalb
der Gruppen.
Bsp.: 4 Laboratorien sind hinsichtlich ihres mittleren 2,3Butandiolgehaltes in Wein zu vergleichen.
Voraussetzungen für die Varianzanalyse:
Umfang der i-ten Gruppe
● Xi ~ N(µi, σ2)
i = 1, ..., a
j = 1, ..., ni
Anz. der Gruppen od. Stufen
● Homogenität der Varianzen: σi2 = σ2 ∀i
⇒ Bartlett-Test ( NV, ni > 5)
Cochran-Test (NV, ni=n ∀i)
Levéne-Test (keine NV)
Man betrachtet a Stichproben:
Xij:
 X 11  ....  X a 1

 
 :  

 
X
 1n 1  ....  X an a





VA- Modell I mit einfacher Klassifikation:
Xij = µi + εij
Xij = µ + αi + εij
i = 1, ..., a
j = 1, ..., ni
mit εij ~ N(0, σ2) (zufälliger Fehler)
wobei: µ - Gesamterwartungswert
αi - Effekt der i- ten Stufe
des Faktors A;
αi = µi - µ
- χ2- Anpassungstest
- Shapiro- Wilks-Test
- T. auf Schiefe und Exzess
- Kolmogorov- Smirnov-T.
mit Lilliefors- Korrektur
Bsp.: Vergleich des mittleren Butandiolgehaltes in 4
Laboratorien
Ausgangstabelle (Versuchsplan):
Nr. der Wdhlg.
j
1
2
3
4
5
6
xi.
s i.
a=4
Anz. der Laboratorien
Stufen des Faktors: Labor
L2
L3
L4
L1
0,780
0,810
0,760
0,746
0,770
0,790
0,750
0,750
0,780
0,770
0,720
0,734
0,774
0,780
0,756
0,741
0,750
0,760
0,770
0,739
0,790
0,770
0,780
0,736
0,774
0,780
0,756
0,741
0,014
0,018
0,021
0,006
ni = n = 6
Gruppenumfang
N = 24
Gesamtstichprobenumfang
Box- Whisker Plot ansehen!
Box- Whisker Plot
Butandiolgehalt
0,82
0,8
0,78
0,76
0,74
0,72
L1
L2
L3
L4
1. Unterscheiden sich die 4 Laboratorien hinsichtlich des
mittleren Butandiolgehaltes von Wein, d.h. hat der Faktor
“Laboratorium” Einfluss auf den Butandiolgehalt?
Vor.: Xi ~ N(µi, σ2)
(?)
i = 1, ..., 4
j = 1, ..., 6
Homogenität der Varianzen: (Test: H0: σ12 = ... = σ42
gegen HA: ∃ (i,j): σi2 ≠ σj2 (i ≠ j)
→ kann angenommen werden (?)
Modellannahme: Xij = µ + αi + εij
= µi + εij
2. Hypothesen:
H0: µ1 = ... = µ4
äquivalent
HA: ∃ (i,j): µi ≠ µj (i ≠ j)
mit εij ~ N(0, σ2)
H0: α1 = ... = α4 = 0
HA: ∃ (i,j): αi ≠ αj
(i ≠ j)
3. Teststatistik unter H0:
Teststatistik basiert auf Zerlegung der Summe der
Abweichungsquadrate
Ausgangspunkt: Empirische Varianz s2
a
1
2
s =
∑
N − 1 i =1
ni
1
( X ij − X ⋅⋅ ) =
SQ G
∑
N −1
j =1
2
SQG – Summe der Abweichungsquadrate der Messwerte vom
Gesamtmittelwert
SQG = SQI + SQZ
SQ
I
=
a
ni
i=1
j=1
∑∑
( X ij − X i⋅ ) 2
SQI - Summe der Abweichungsquadrate
innerhalb einer Gruppe
(Stufe)
SQ
Z
wobei
=
a
ni
i=1
j=1
∑∑
( X i ⋅ − X ⋅⋅ ) 2
SQZ - Summe der Abweichungsquadrate
zwischen den Gruppen
(Stufen)
ni
1
Xi⋅ = ∑ Xij
ni j=1
1
X ⋅⋅ =
N
Es gilt ebenfalls:
Gruppenmittelwert
ni
a
∑∑X
i =1
j =1
ij
Gesamtmittelwert
FGG = FGI + FGZ
(N-1) = (N-a) + (a-1)
⇒
⇒
MQ G
1
=s =
SQ G
N −1
2
MQ I =
1
SQ I
N−a
MQZ =
1
SQZ
a −1
Teststatistik unter H0:
F=
MQ Z
~ F ( m 1, m 2 )
MQ I
m1 = a-1 m2 = N-a
4. Wert der Teststatistik:
⇒ Varianztabelle (ANOVA-Tabelle)
Variationsursache
SQ̂
FG
MQ̂
zwischen
den Stufen
SQ̂Z
a-1
MQ̂ Z
innerhalb
der Stufen
Gesamt
0,00565
3
0,00188
SQ̂I
N-a
MQ̂I
0,00482
20
N-1
SQ̂G
0,009538
23
0,00024
MQ̂G
Wert der
Teststatistik
f
f=
M Q̂ Z
M Q̂ I
= 7,82
P-Wert
P=
0,0012
5. Kritischer Bereich K:
Dichtefunktion der F- Verteilung
0,8
FG
3,20
Dichte
0,6
0,4
0,2
α
0
0
1
2
3
4
5
F
F 3; 20; 0,95
6. Testentscheidung:
Wenn f > Fa-1; N-a; 1-α → Ablehnung von H0
Da 7,82 = f > F3; 19; 0,95 = 3,127
→ Ablehnung von H0,
d.h. die Mittelwerte des Butandiolgehaltes der Laboratorien
unterscheiden sich zum Signifikanzniveau α = 0,05.
Bem.: Wenn die Nullhypothese H0 abgelehnt wird, ist man
daran interessiert, herauszufinden, welche Gruppen
einen signifikant höheren oder niedrigeren Mittelwert
aufweisen und schließt daher multiple paarweise Vergleiche, z.B. mit der Prozedur von Tukey- Kramer an.
Man prüft dann den folgenden Hypothesenkomplex,
 a  a ⋅ ( a − 1)
bestehend aus
  =
Hypothesen:
2
2
H0: µi = µj (i ≠ j)
gegen HA: µi ≠ µj (i≠j)
MW und 95%-iges HSD- Intervall von Tukey
0,8
MW
0,78
0,76
0,74
0,72
L1
L2
L3
L4
HSD- Test von Tukey- Kramer (α = 0,05 versuchsbezogen, wird
für alle Vergleiche eingehalten!)
------------------------------------------------------------------------------------
Gruppe Anz.
MW
Homogene Gruppen
-----------------------------------------------------------------------------------L4
6
0,741
X
L3
6
0,756
XX
L1
6
0,774
X
L2
6
0,78
X
------------------------------------------------------------------------------------
Kontrast
Differenz
+/- Grenzen
-----------------------------------------------------------------------------------L1-L2
-0,006
0,0251053
L1-L3
0,018
0,0251053
L1-L4
*0,033
0,0251053
L2-L3
0,024
0,0251053
L2-L4
*0,039
0,0251053
L3-L4
0,015
0,0251053
-----------------------------------------------------------------------------------* statistisch signifikante Differenz (α = 0,05)
Ergebnis:
- Zwischen zwei Laboratorien gibt es statistisch signifikante
Mittelwertunterschiede hinsichtlich des Butandiolgehaltes
von Weinen auf dem 5%- igen Signifikanzniveau,
d.h. in 5 % aller Fälle liefert die HSD- Methode von TukeyCramer fälschlicherweise ein oder mehr signifikante
Paare mit Mittelwertdifferenzen.
- Zwei homogene Gruppen von Laboratorien wurden gebildet:
Gruppe 1: L 3 und L 4 und
Gruppe 2: L 1, L 2 und L 3.
Bem.: Wenn Xi nicht normalverteilt und/ oder keine Varianzhomogenität vorliegen würde (s. Box- Whisker Plot!)
→ Kruskal- Wallis Test (unabh. Stichproben) anwenden!
Anz.
MW der Ränge
-----------------------------------------------------------L1
6
16,8333
L2
6
17,75
L3
6
10,75
L4
6
4,66667
------------------------------------------------------------
H0: ζ1 =…= ζ4 (Mediane)
HA: ∃ (i,j): ζi ≠ ζj (i ≠j)
Wert der Teststatistik = 13,4436 →
P- Wert = 0,0038 < α = 0,05 → Ablehnung von H0 (Gleichheit
der Mediane)
Um zu ermitteln, welcher der Mediane sich signifikant von
welchem unterscheidet, kann man den Box- Whisker Plot mit
der „notch option“ auswählen.
Bem.: Bei zwei oder mehr Faktoren im Varianzanalysemodell können neben den Haupteffekten der Faktoren
auch deren Wechselwirkungen bestimmt werden.
Bsp.: Der Vanadiumgehalt in Wein ist von den Faktoren
„Land“, „Typ“ und „Farbe“ abhängig.
Means Plot with confidence limits for Vanadium
(Interaction: Type*Country*Colour)
2,5
2,0
Vanadium
WechselWirkungsplot
1,5
1,0
0,5
0,0
-0,5
-1,0
Ty pe: Authentic
Commercial
White wines
Type: Authentic
Commercial
Red wines
Czech Republic
Hungary
Romania
South Africa
Herunterladen