Auf experimentell-heuristischem Weg zur Normalverteilung

Werbung
Auf experimentell-heuristischem Weg zur Normalverteilung
P ETRA H AUER -T YPPELT
Zusammenfassung: Die Motivation für diesen Unterrichtsvorschlag ist, die Lernenden im Sinne des
entdeckenden Lernens zunächst auf visueller Ebene an die Normalverteilung heran zu führen. Der
Zufallszahlengenerator des Microsoft Office Paketes
wird zur Simulation von empirischem Datenmaterial genutzt. Als Ergebnis interaktiver Tätigkeit der
Schüler1 soll das Verständnis für die Normalverteilung quantitativ erfassbarer Größen auf der ikonischen Ebene aufgebaut werden. Im Anschluss wird
durch Verbalisieren und Formalisieren von der BildEbene zur Symbolsprache der Mathematik übergegangen, um schließlich die Funktionsgleichung der
Gaußschen Glockenkurve als Ergebnis zu erhalten.
1 Visualisieren
1.1 Wie wird visualisiert - was leistet das
Programm?
Der Statistiker Quételet2 führte in der ersten Hälfte des 19. Jahrhunderts eine Erhebung durch, um
seine Vermutungen hinsichtlich der Normalverteilung gewisser empirischer Daten zu bestätigen. Seine
berühmt gewordene Messung des Brustumfangs von
über 5000 schottischen Soldaten stärkte seine Vermutung, dass zufällig gewählte, messbare Größen,
die von vielen Einflussfaktoren bestimmt werden,
normalverteilt sind. Die Bestätigung und auch Erklärung für diese Tatsache liefert der Zentrale Grenzwertsatz.
Auf den Ergebnissen einer Vielzahl von empirischen
Untersuchungen aufzubauen, deren graphische Darstellung jeweils annähernd eine Glockenkurve ergibt,
liefert einen günstigen Ansatz im Unterricht. Um den
Zeitaufwand der Datenerhebung zu sparen, verwenden wir den Computer zur Simulation von Datenmaterial.
Dabei geht es auch um Darstellen von Grafiken und
interaktives Lernen, das manifestiert die Entscheidung für den Computereinsatz. Ich greife auf das Tabellenkalkulationsprogramm EXCEL zurück, weil es
praktisch in allen Lehranstalten zur Verfügung steht
und damit ein unkomplizierter Einsatz garantiert ist.
Ein kurzes VBA3 –Programm bewerkstelligt das Er-
stellen einer Tabelle mit Zufallszahlen in Excel, die
graphisch dargestellt wird.
Unter Einsatz des Zufallszahlengenerators des
Office–Paketes werden ganzzahlige Zufallszahlen
von 1 bis 100 erzeugt. Dabei kann der Benutzer sowohl die Anzahl n der Stichproben als auch die Anzahl x der Zufallszahlen pro Stichprobe festlegen.
Wir dürfen davon ausgehen, dass jede der 100 Zufallszahlen mit gleicher Wahrscheinlichkeit vom Zufallszahlengenerator ausgewählt wird, also eine hinreichende Gleichverteilung vorliegt.
In Excel wird die Auswahl der Zahlen jeweils in einem Diagramm dargestellt. Jeder Zufallszahl wird eine Strecke zugeordnet, wobei die Streckenlänge die
relative Häufigkeit angibt, mit der eine Zufallszahl
ausgewählt wurde. Für n = 100 Stichproben mit jeweils einer Zufallszahl pro Stichprobe, also x = 1,
entsteht bei Gleichverteilung theoretisch ein Diagramm mit hundert gleich langen Strecken. In der
Praxis wirft das Programm eine solche Grafik allerdings praktisch nie aus, gerade weil eben der Zufall
bestimmend ist. Ein günstiger Anlass im Unterricht
die Begriffe “Zufall” und “Wahrscheinlichkeitsverteilung einer Größe”, hier am Beispiel der Gleichverteilung (wiederholend) zu thematisieren. Tietze et al.
gehen ausführlich auf Schwierigkeiten bei der Vermittlung von adäquaten Vorstellungen des “Konzepts
Zufall” ein, weil es sich eben nicht “durch rein verbale Erklärungen im Sinne einer Definition vermitteln
lässt” (Tietze, Klika & Wolpers, S. 146ff).
Abbildung 1 zeigt ein Ergebnis für n = 10000 Stichproben mit x = 1. Es ist keinerlei Struktur erkennbar,
die auf eine Bevorzugung bestimmter Zahlen schließen lässt. In der praktischen Durchführung ist es an
dieser Stelle natürlich notwendig eine Reihe von weiteren Diagrammen mit unterschiedlichen, auch sehr
großen n zu erstellen, um die Annahme der Gleichverteilung zumindest exemplarisch zu rechtfertigen.
Wir kommen im nächsten Abschnitt, wenn es darum
geht, konkrete Arbeitsaufträge für die Lernenden zu
erstellen, darauf zurück.
1 Die
Begriffe Schüler und Lehrer werden wegen der angenehmeren Lesbarkeit geschlechtsneutral verwendet.
Adolphe Jacques Quételet, belgischer Astronom und Statistiker, 1796-1874
3 Visual Basic for Applications. Auf Anfrage sende ich die entsprechende Excel-Datei gerne zu (e-mail-Adresse am Ende des Artikels).
2 Lambert
2
Stochastik in der Schule 26 (2006) 3 S. 2–10
Abb. 1: n = 10000 Stichproben; 1 Zufallszahl je
Stichprobe
Erhöht man n, am besten vorerst bei konstantem
x > 2, wird die Struktur der Grafik regelmäßiger.
Die Bevorzugung der Mitte und das umso seltenere Auftreten eines Wertes, je weiter er vom Mittelwert abweicht, werden offensichtlich. Außerdem
wird die Vermutung gestärkt, dass Abweichungen
nach oben bzw. nach unten gleich wahrscheinlich
sind. Je größer man n wählt, desto mehr nimmt der
obere Rand des Streckenschaubildes die Form einer
Glockenkurve an.
Mit genügend großem n erhält man eine nahezu perfekte Gauß-Glockenkurve, wie auch Abbildung 3
zeigt.
Der rote Faden hier muss sein, den Graph der Dichtefunktion der Normalverteilung schrittweise am Bildschirm entstehen zu lassen.
Dazu wird nun die Anzahl der Zufallszahlen pro
Stichprobe erhöht. Das Programm errechnet das
arithmetische Mittel dieser Zahlen, nimmt davon den
ganzzahligen Anteil und stellt die relative Häufigkeit dieses Werts wieder als Strecke dar. Die Skalierung der y-Achse wird jeweils den darzustellenden Werten angepasst. Als Beispiel zeigt Abbildung
2 ein Ergebnis für n = 1000 Stichproben und je 5 Zufallszahlen pro Stichprobe. Die grundsätzliche Struktur des Streckenschaubildes stellt sich bei wiederholter Durchführung der Stichprobe immer wieder ein:
Stichprobenmittelwerte im Bereich des Mittelwerts
50,5 der verwendeten Zufallszahlen treten gehäuft
auf4 .
Abb. 3: n = 500000 Stichproben; 5 Zufallszahlen je
Stichprobe
Zu klären bleibt noch, wie die Anzahl x der Zufallszahlen pro Stichprobe Einfluss nimmt.
Abb. 2: n = 1000 Stichproben; 5 Zufallszahlen je
Stichprobe
4 Der
Dazu zeigt Abbildung 4 vergleichend zwei Erhebungen mit gleichem n, aber unterschiedlichem x. Offensichtlich beeinflusst x die Breite der Glockenkurve. Das ist leicht einsichtig, denn klarerweise treten bei einer größeren Anzahl von Zufallszahlen pro
Stichprobe Ausreißer, d.h. Stichprobenmittelwerte
im Randbereich, noch seltener auf, als bei einer kleineren Anzahl von Zufallszahlen pro Stichprobe. Daher ist für ein kleineres x eine breitere Glockenkurve
als für ein großes x zu erwarten (siehe Abb. 4).
Mittelwert und die Varianz zu jeder Darstellung stehen im Tabellenteil der Ausgabe zu etwaigen Verwendung bereit.
3
Denn gerade das Ausprobieren und Sichten von vielen verschiedenen Histogrammen mit unterschiedlichen Werten für n und x ist eine tragende Säule dieses Unterrichtsvorschlages. Die Qualität des gesamten Unterrichtskonzeptes wird durch ein Streichen
dieses schülerzentrierten Teiles beeinträchtigt.
Ich selbst habe in meinem Unterricht beide Möglichkeiten durchgeführt, die zweite allerdings nur,
wenn zwingende zeitliche Rahmenbedingungen eine
selbstständige, interaktive Schülerarbeit nicht zuließen. Die Resultate der beiden Einsatzmöglichkeiten sind einfach zu unterschiedlich. Die interaktive Tätigkeit, die auch ein selbstständiges Dokumentieren von Ergebnissen einfordert, bringt erstens eine stärkere Identifikation mit der Materie und zweitens mehr eigenes nachhaltiges Wissen. HefendehlHebeker schreibt von der Herausbildung mathematischer Einsicht im Kopf des lernenden Individuums als empfindlicher Prozess (Hefendehl-Hebeker,
2003, S. 109). Dieser Prozess verläuft im vorliegenden Fall bei selbstständiger Schülerarbeit nicht zuletzt durch den größeren Zeitrahmen gewinnbringender als bei einem vergleichsweise kurzen Einsatz des
Programms zur Demonstration.
Abb. 4: Im Vergleich: n = 100000 Stichproben mit
unterschiedlichem x, oben x = 3, unten x = 7.
1.2 Hinweise zur praktischen Umsetzung Erfahrungsbericht
Grundsätzlich sind zwei Einsatzmöglichkeiten des
Programms denkbar.
Der eigentlichen Intention dieses Unterrichtsvorschlages folgend steht die Empfehlung zur Umsetzung in einem schüleraktiven Unterricht an erster Stelle. Die Lernenden verwenden dabei das
Programm selbstständig. Ziel ist Erkenntnisgewinn
durch konkretes, eigenständiges Handeln.
Selbstverständlich ist es auch möglich, das Programm rein zur Demonstration einzusetzen. Im Rahmen eines Lehrervortrages oder Lehrer-Schülergespräches werden die Diagramme zentral erstellt und
besprochen bzw. erklärt. Auf geradlinigem Weg kann
das Ziel, die Entstehung der Glockenkurve als oberer Rand des Histogramms, angepeilt werden. Freilich ist es eine Frage der Sichtweise, ob die Geradlinigkeit in diesem Fall tatsächlich ein Vorteil ist.
5 Klarerweise
Vorschläge für Arbeitsaufträge in einem
schülerzentrierten Unterricht:
Jeder durch Arbeitsaufträge motivierte schüleraktive Unterricht muss in besonderem Maße das Vorwissen und die Fähigkeit zur eigenständigen Arbeit der Schüler berücksichtigen. Davon abhängig
können Aufgabenstellungen sehr offen oder sehr zielorientiert formuliert werden. Die Risken einerseits
und Chancen andererseits beider Möglichkeiten sind
jedem Mathematik-Lehrenden bekannt.
Die nachstehende kleine Auswahl von Vorschlägen
für Arbeitsaufträge variiert in der Intensität der Hilfestellung, die durch die Formulierung des Arbeitsauftrages gegeben ist.
Fragen zur Gleichverteilung des Zufallszahlengenerators:
• Überprüfe den Zufallszahlengenerator exemplarisch: Liegt tatsächlich Gleichverteilung
vor, d.h., liegt keine Bevorzugung bestimmter
Zahlen vor?5 .
Deutlich stärkere inhaltliche und strategische Orientierung für die Lernenden bieten folgende Formulie-
ist durch eine “Überprüfung” dieser Art die Qualität des Zufallszahlengenerators keineswegs abgesichert. Ist entsprechend Zeit vorhanden, bietet sich hier die Möglichkeit genauer auf Zufallszahlengeneratoren und mögliche Fehlfunktionen einzugehen
4
rungen:
• Wähle x = 1 für die Anzahl der Zufallszahlen pro Stichprobe und lass für unterschiedliche n Diagramme erstellen. Welche n eignen
sich, um eine eventuelle Bevorzugung einzelner Zahlen zu erkennen?
• Wie viele Diagramme sind nötig, um zumindest exemplarisch die Annahme der Gleichverteilung zu rechtfertigen?
• Fallen zufällige Abweichungen von der
Gleichverteilung eher für große oder eher für
kleine n ins Gewicht?
Wir kommen nun zu Fragen, die sich auf das Erfassen der besonderen Merkmale der Histogramme beziehen.
Zunächst Beispiele für zielgerichtete Fragestellungen, jede Frage legt den Fokus auf ein bestimmtes
Merkmal:
• Wähle eine feste Anzahl x von Zufallszahlen je
Stichprobe und variiere n. Wie verändern sich
die Histogramme?
• Lass für ein festes n > 1000 und ein festes
x > 2 mehrere Diagramme erstellen. Treten
Werte > 70 oder Werte < 30 häufiger auf? Wie
lautet die Antwort für den Vergleich von Werten > 90 mit Werten < 10?
• Variiere nun bei fester Stichprobenanzahl n
die Anzahl x der Zufallszahlen pro Stichprobe. Wie beeinflusst die Wahl von x die Gestalt
der Histogramme?
Offen formuliert und daher hohe Anforderung an die
Eigenständigkeit des experimentellen Arbeitens der
Lernenden stellend ist:
• Erhöhe kontinuierlich die Anzahl x der Zufallszahlen pro Stichprobe bzw. die Stichprobenanzahl n. Wie verändern sich die Histogramme?
In der Sekundarstufe II habe ich mit zielgerichteten
Arbeitsaufträgen im Allgemeinen bessere Erfahrungen gemacht als mit offenen. Sie geben das “Was?”
und “Wie?” vor und bringen naturgemäß auch strukturiertere Ergebnisse als offene Fragestellungen und
damit eine gute Basis für das weitere Vorgehen.
In der Sekundarstufe II arbeite ich daher mittlerweile nur mit zielorientierten Fragen. Denn offene Formulierungen bewirkten in der Vergangenheit letztlich
immer, dass ich während der Stunde Hilfestellungen
gab, welche die Frage nach dem “Wie?” ebenso richtungsweisend beantworteten wie entsprechende Arbeitsaufträge. Solche Informationen verbreiten sich
bekanntlich wie ein Lauffeuer, können daher auch
kaum als individuelle Hilfestellungen betrachtet werden, und sind von der eigenständigen, konzentrierten
(Team-)Arbeit ablenkend.
Bei meiner Tätigkeit an der Pädagogischen Akademie in der Ausbildung von Mathematiklehrern für
Hauptschulen hat sich der Einsatz von offenen Fragestellungen eher bewährt. Auch in diesen Unterrichtssituationen waren teilweise strategische Hilfestellungen notwendig, aber entsprechend den Lernenden
(angehende Mathematiklehrer) in geringerem Ausmaß.
Jedenfalls geht es bei den Fragestellungen immer
darum, die besonderen Merkmale der Diagramme
zu erfassen. Dabei ist die Entscheidung, welche und
wie viele Graphiken dazu mit dem Programm erstellt
werden, als wesentliche Aufgabe zu sehen und daher
den Lernenden zu überlassen. In diesem Sinn ergibt
sich interaktives Handeln, denn die Wahl der Anzahl
der Stichproben bzw. die Anzahl der Zufallszahlen
pro Stichprobe für das erste Histogramm beeinflusst
die Auswahl für das zweite Histogramm usw. Somit werden die Grundlagen für die anschauliche Erkenntnis von den Lernenden innerhalb des Rahmens,
den das Programm bietet, selbst ausgewählt. Dies ist
ein bewusst betontes übergeordnetes Lernziel dieses
Unterrichtsvorschlages. Die selbstständige Auswahl
von Entscheidungsgrundlagen, sowohl in quantitativer als auch in qualitativer Hinsicht, ist eine Fähigkeit die weit über die Stochastik hinaus eine Rolle spielt. Hanisch schreibt in diesem Zusammenhang
von “latenten Lehrzielen”, die es im Auge zu halten
gilt (Hanisch, 1995, S. 112), in Übereinstimmung mit
Christmann, der das Ansteuern von Nahzielen stets
im Einklang mit langfristigen Zielsetzungen aufgebaut sehen will (Christmann, 1980, S. 215).
Ebenso verhält es sich mit dem Anspruch an die
Schüler, ihre auf der anschaulichen Ebene gewonnenen Erkenntnisse in die sprachliche Ebene zu übertragen. Die Überlegungen und Ergebnisse müssen so
festgehalten werden, dass ein sinnvolles Besprechen
und Vergleichen möglich ist. Dieser Anspruch kann,
wenn es notwendig erscheint und es für die Lernenden auf Grund vorangegangener Unterrichtseinheiten
nicht ohnehin selbstverständlich ist, in einem weiteren Arbeitsauftrag formuliert werden.
5
Wie die Schüler ihre Ergebnisse festhalten, bleibt ihnen an sich selbst überlassen. Nach meiner Erfahrung ist es allerdings unumgänglich, hier mit strategischen Hilfestellungen zur Seite zu stehen. Das
beeinflusst die Eigenständigkeit zwar deutlich, viele
Schüler neigen aber dazu ihre (oft sehr umfassenden)
Erkenntnisse zu oberflächlich zu dokumentieren. Das
erweist sich im weiteren Unterrichtsverlauf, der gerade auf diesen Erkenntnissen aufbaut, als Mangel.
Überdies ist es mir an dieser Stelle wichtig, die Bedeutung des sinnvollen Dokumentierens von Ergebnissen, sei es in verbaler oder graphischer Form, herauszustreichen. Es handelt sich dabei um eine wichtige Kompetenz, die wohl für viele Lebensbereiche
grundlegende Bedeutung hat.
2 Ein Weg zur Gleichung der
Dichtefunktion
Wir gehen nun vom Ergebnis eines Experiments aus,
bei dem die Werte einer Zufallsvariablen gemessen
wurden. Dieses Ergebnis sei graphisch durch eine
Kurve oder einen Polygonzug mit annähernd glockenförmigem Aussehen erfasst. In unserem konkreten Fall wird also der obere Rand der Streifenschaubilder durch einen Polygonzug dargestellt.
Die Ausprägung der “Knicke” im Polygonzug ist
durch die Anzahl der Stichproben begründet und ist
umso weniger stark, je größer die Anzahl der Stichproben und je feiner die Unterteilung der Skala für
die möglichen Ergebnisse ist. Außerdem ist zu bedenken, dass viele im Prinzip stetige Zufallsvariable
mittels Klasseneinteilung als diskrete Zufallsvariable
aufgefasst werden, um in einem Experiment messbare Ergebnisse erhalten zu können. Das gilt auch für
den Durchschnittswert von Zufallszahlen, der eine
kontinuierliche Größe ist, wenn man bei den Zufallszahlen alle Werte aus dem Intervall [1, 100] zulässt.
Erst durch die Einschränkung auf ganzzahlige Werte
bewegen wir uns im diskreten Bereich.
Das rechtfertigt den Grenzübergang n → ∞ und somit die Frage nach einer glatten Glockenkurve, um
die Verteilung der Zufallsvariablen idealisiert darzustellen.
Die durch empirische Befunde ausgewiesene Gemeinsamkeit der Verteilungen von verschiedensten
Zufallsvariablen bezieht sich natürlich nur auf eine
qualitative Gleichartigkeit der Kurve, niemals auf absolute Werte von Wahrscheinlichkeiten oder Häufigkeiten.
6 Durch
6
Z=
Wir suchen also nach einer Funktion, die als Dichtefunktion für Zufallsvariablen fungieren kann, deren Häufigkeitspolygone, basierend auf den Ergebnissen eines Experiments, annähernd eine Glockenkurve darstellen. Die Diagramme in 1.1 liefern Mittelwerte um 50,5 und unterschiedliche Varianzen, die
durch die unterschiedliche Anzahl der Zufallszahlen
je Stichprobe und unterschiedliche Anzahl an Stichproben bedingt sind. Es ist leicht plausibel zu machen, dass eine andere Wahl der Zufallszahlen (z.B.
von 1 bis 50) den Mittelwert verändert. Da es um die
qualitative Gleichartigkeit der Glockenkurven geht,
soll die Suche unabhängig vom jeweiligen Mittelwert
und von der jeweiligen Varianz sein. Daher wenden
wir eine spezielle lineare Transformation, die Standardisierung, an.
Durch Standardisieren kann man von jeder Zufallsvariable X mit beliebigem Erwartungswert µ und beliebiger Varianz σ2 zu einer Zufallsvariable mit µ = 0
und σ2 = 1 übergehen6 . Damit können wir unsere Suche auf eine spezielle Kurve einschränken.
Fassen wir nun die Eigenschaften zusammen, die wir
von der gesuchten Dichtefunktion ϕ aufgrund unserer experimentellen Ergebnisse und Vorüberlegungen
fordern:
1. Da nach den Ergebnissen der Experimente Abweichungen vom Mittelwert nach oben und
nach unten gleich wahrscheinlich sind, soll
die Funktion symmetrisch zum Erwartungswert sein. Entsprechend der Standardisierung
erhält µ den Wert 0, an dieser Stelle befindet
sich der einzige Extremwert (Maximum) der
Funktion. Die Kurve ist eingipfelig und im Intervall ] − ∞, 0[ monoton wachsend bzw. im Intervall [0, ∞[ monoton fallend. Die Zufallsvariable soll überdies die Varianz 1 besitzen.
2. Der glatte, glockenförmige Graph der Dichtefunktion soll ohne “Knicke” sein, was bedeutet, dass wir nach einer überall differenzierbaren Funktion ϕ fragen, die nirgends verschwindet.
3. Darüber hinaus muss wie für jede Wahrscheinlichkeitsdichte gelten ϕ(z) ≥ 0 ∀z ∈ R und
da die Gesamtfläche zwischen Dichtefunktion
und x-Achse den Wert 1 haben muss
Z ∞
−∞
ϕ(z)dz = 1.
X −µ
erhält man die zu X standardisierte Zufallsvariable Z mit Erwartungswert 0 und Varianz 1.
σ
Daraus folgt ϕ(z) → 0 für |z| → ∞, was auch
der Forderung, dass die Wahrscheinlichkeit extrem großer Abweichungen vom Mittelwert
(nach oben und nach unten) sehr klein wird,
entspricht.
divergiert.
Wir haben nun eine Funktion zu finden, die diesen
drei Forderungen genügt.
Als Ausgangspunkt sind verschiedenste elementare
Funktionen denkbar, die schrittweise, entsprechend
dem Forderungskatalog adaptiert werden. Je nachdem von welchem der drei Punkte man ausgeht, wird
die eine oder andere Funktion als “Startfunktion”
Verwendung finden.
So knüpft beispielsweise Strehl seine Überlegungen an die Funktion f (x) = 1x an (Strehl, 1984, S.
143). Ebbmeyer und Stamm setzen im ersten Versuch
mit einer abschnittsweisen Festlegung der gesuchten
Funktion an (Ebbmeyer & Stamm, 1985, S. 405).
Wir beginnen beim ersten Punkt mit der Forderung nach einer zum Erwartungswert symmetrischen
Funktion. Dieses Kriterium erfüllen z.B. Funktionen
mit den Funktionsgleichungen y = |x| bzw. y = x2n .
Aufgrund der Forderung nach einer überall differenzierbaren Funktion scheiden Betragsfunktionen aus,
um eine möglichst einfache Funktion zu erhalten,
wählen wir als Funktionsterm x2 .
Die Funktion widerspricht aber natürlich sowohl dem
Anspruch auf ein Maximum an der Stelle 0 als auch
dem Punkt (3). Daher ist der Übergang zur Funkti1
on f (x) = 2 nahe liegend, womit die asymptotische
x
Annäherung an die x-Achse für |x| → ∞ erfüllt ist.
Diese Funktion ist jedoch an der Stelle x = 0 nicht
definiert. Wir vermeiden das durch eine Änderung
im Nenner, beispielsweise durch Addition einer Konstanten a2
⇒
f (x) =
1
a2 + x2
,
a 6= 0
oder durch Anwendung der Exponentialfunktion
⇒
f (x) =
1
−x2
,
2 = a
x
a
σ =
7 siehe
Z ∞
−∞
x2
1
dx
a2 + x2
1
a2 + x2
.
1
2 haben wir als Funktiax
onsgraph ebenfalls bereits den Typ der Glockenkurve
vorliegen.
Mit der Funktion f (x) =
Die Wahl der Basis a ist beliebig, denn durch einen
Korrekturfaktor im Exponenten kann man jederzeit
von einer Basis a zu einer anderen Basis b übergehen.
Um die Handhabung der Funktion einfach zu machen, wählen wir daher als Basis die Euler’sche Zahl
2
2
e. Als “Korrekturfaktor” ist wegen a−x = e−x lna der
natürliche Logarithmus der Basis a anzuwenden.
Um als Dichte verwendet werden zu können, muss
für eine Funktion die Normierungsbedingung
(3)
Z
∞
erfüllt sein. Es gilt daher das Integral
−∞
2
e−x dx
zu berechnen. Die Berechnung dieses uneigentlichen
Integrals kann zum Beispiel durch den Übergang zu
einem Doppelintegral und Verwendung von Polarkoordinaten bewerkstelligt werden7 . Egal für welchen
Berechnungsweg man sich entscheidet, die notwendigen Vorkenntnisse sind auf Schulniveau im Normalfall nicht gegeben. Daher schlage ich an dieser
Stelle vor, das Integral von einem Computeralgebraprogramm (z.B. Derive) auswerten zu lassen, was sofort zum Ergebnis
a > 0.
Die erst genannte Möglichkeit, die anschaulich gut
passt (vgl. Abbildung 5), scheitert an der Forderung
für die Varianz σ2 = 1. Denn das für die Berechnung
der Varianz relevante Integral
2
Abb. 5: Graph der Funktion y =
Z ∞
−∞
2
e−x dx =
√
π
führt.
√
Wir verwenden somit π als Normierungsfaktor und
erhalten mit
2
1
f (x) = √ e−x
π
z.B. Barth & Haller (1988), S. 288f. oder Meyer (2004), S. 96f.
7
eine Funktion, die den Forderungen (2) und (3)
genügt, jedoch die in (1) genannte Bedingung nach
σ2 = 1 nicht erfüllt, sondern für die Varianz den Wert
1
2 aufweist.
Auch hier ist gemäß der Definition der Varianz die
Berechnung eines uneigentlichen Integrals, nämlich
σ2 =
Z ∞
−∞
Damit ergibt sich als Dichte ϕ der Zufallsvariable Z
z2
1
ϕ(z) = √ e− 2 ,
2π
und diese Funktion erfüllt nun alle drei gestellten
Forderungen!
x2 f (x)dx
erforderlich. Da man dieses Integral zumindest zu einem Teil mittels Grenzwertüberlegungen auswerten
kann, ist die Berechnung für manche Leistungskurse
auch auf schulischer Ebene machbar. In Österreich
wäre das beispielsweise im Wahlpflichtfach Mathematik, das an Allgemeinbildenden Höheren Schulen
angeboten wird, möglich.
Durch Einsetzen erhält man
Z ∞
1
2
1
x √ e−x dx = √
σ =
π
π
−∞
2
2
Z ∞
−∞
2
(−x)(−xe−x )dx.
Das Produkt wird partiell integriert. Durch Anwendung der Regel von de l’Hospital und dem Wissen
Z
∞
√
2
1
e−x dx = π von oben ergibt sich der Wert .8
2
−∞
1
Für unsere vorliegende Funktion gilt also σ2 = , der
2
Erwartungswert beträgt wegen der Symmetrie 09 .
Daher standardisieren wir die Zufallsvariable X , die
durch diese Dichtefunktion beschrieben wird:
X −µ X √
Z=
= = 2X
σ
σ
und berechnen die Dichtefunktion ϕ(z) der Zufallsvariablen Z mit dem Mittelwert 0 und der Varianz 1.
Für die Verteilungsfunktion der Zufallsvariablen X
gilt
Z x
2
1
Φ(x) = √
e−u du
π −∞
und damit für
z
1
Φ(z) = P(Z ≤ z) = P(X ≤ √ ) = √
π
2
Z
√z
2
−∞
2
e−u du.
Wir substituieren
1
Φ(z) = √
π
8 Ausführlicher
Z z
− 21 v2
e
−∞
1
1
√ dv = √
2
2π
Es bietet sich hier an, die eben durchgeführte Standardisierung anschaulich
√ zu reflektieren. Durch die
Transformation Z = 2X erfährt die Kurve
√ eine horizontale Streckung um den Faktor 2. Um den
Flächeninhalt zwischen Kurve und x-Achse konstant
auf dem Wert 1 zu halten, muss daher eine vertikale
1
Stauchung um den Faktor √ erfolgen (vgl. Abbil2
dung 6).
Spätestens jetzt erfolgt im Unterricht die Namensgebung der Normalverteilung.
1
u= √ v
2
und erhalten
1
2
Abb. 6: Vergleich der Graphen für f (x) = √ e−x
π
1 −x2
(oben) und ϕ(x) = √ e 2 .
2π
Z z
−∞
v2
e− 2 dv.
Unsere Vorgangsweise sagt natürlich nichts darüber
aus, ob es noch andere Funktionen gibt, die ebenso den Forderungskatalog erfüllen und somit als gesuchte Dichtefunktion fungieren könnten.
siehe Hauer-Typpelt, 1998, S. 65f.
9 Dieser Wert lässt sich über die Definition E(X) = R ∞ x · f (x)dx nachrechnen
−∞
8
Aufbauend auf den Ausgangspunkten unserer Überlegungen, den (simulierten) empirischen Befunden,
haben wir die Ansprüche an die Funktion formuliert
und diese für eine Funktion abgesichert.
Viele in der Natur auftretende Merkmale sind normalverteilt bzw. es hat sich gezeigt, dass viele
Häufigkeitsverteilungen gut durch die Normalverteilung approximiert werden können. Ob dies im Einzelfall zulässig ist, muss durch statistische Testverfahren abgesichert werden.
Im vorliegenden Zugang zur Normalverteilung sind
wir von gleichverteilten Größen, den Zufallszahlen,
ausgegangen. Das ist eine willkürliche Wahl, denn
diese ursprüngliche Verteilung der Größen spielt, in
dem Rahmen, den der zentrale Grenzwertsatz vorgibt, keine Rolle. Das gerade bewirkt ja die Bedeutung der Normalverteilung. Insofern ist der Zugang
ausbaufähig, indem man Experimente am Computer simulieren lässt, die von anders als gleichverteilten Größen ausgehen. Der Vergleich der Ergebnisse
von Experimenten, die letztlich alle zu Normalverteilung führen, ist sicher lehrreich und führt direkt
zur Grundaussage des zentralen Grenzwertsatzes. Im
Schulbereich wird der Zeitrahmen dafür allerdings
nur in Ausnahmefällen gegeben sein.
Praktische Umsetzung - didaktische
Bemerkungen
Aufbauend auf die Ergebnisse aus der Arbeit mit
dem Programm wird gemeinsam ein Forderungskatalog für die gesuchte Dichtefunktion erstellt. Die
selbstständige Schülertätigkeit, wie sie beim Arbeiten mit dem Programm erreicht werden kann,
darf nicht erwartet werden. Meiner Erfahrung nach
erweist sich hier das klassische Lehrer-SchülerGespräch als nützlich, indem sich sowohl eher lehrerzentrierte als auch eher schülerzentrierte Phasen einstellen. Eine detaillierte Aufschlüsselung dazu kann
an dieser Stelle nicht gegeben werden, da gruppenspezifische Einflussfaktoren eine zu große Rolle
spielen. Immer wieder ist es notwendig, dass konkrete Anstöße von der Lehrperson kommen. Zum Beispiel bei der Forderung nach Mittelwert 0 und Varianz 1, da sie sich aus den Diagrammen nicht zwingend ergibt, sondern aus oben genannten Gründen
(qualitative Gleichartigkeit der Glockenkurven) festgelegt wird. Der Vorgang der Standardisierung wird
als bekannt vorausgesetzt. In der konkreten Unterrichtssituation kann es natürlich hilfreich (manchmal
unerlässlich) sein, diese Transformation anschaulich
unterstützt zu erläutern. Eine der, oben zur Reflexion benutzten, Abbildung 6 ähnliche Darstellung, die
auch die Schiebung um µ enthält, eignet sich dazu.
Da das Programm Mittelwert und Varianz zu jedem
erstellten Histogramm liefert, kann auch anhand eines konkreten Schülerergebnisses die Standardisierung besprochen werden.
Wir knüpfen die ersten Überlegungen an die Funktion y = |x| bzw. y = x2n . An dieser willkürlichen
Auswahl muss natürlich nicht festgehalten werden.
Führen Schülerideen zu anderen Ausgangsfunktionen, so sollte man das unbedingt zulassen. Freilich
erfordert die Anpassung der vorgeschlagenen Funktionen an die gestellten Forderungen im Normalfall
Anleitungen von Seiten des Lehrers, so dass das Ganze auf ein angeleitetes Probieren, Annehmen und
Verwerfen von Ideen hinausläuft, bei dem die problemlösende Komponente betont wird. Dabei wird
eine möglichst hohe Schüleraktivität angestrebt was
das Einbringen von Ideen betrifft. Eine selbstständige Erarbeitung durch die Lernenden ist ein zu hoher
Anspruch. Die Befürchtung, dass Schüler kaum eigene Vorschläge bringen, weil das Thema zu schwierig ist, bestätigen sich in der Praxis nicht. Mitbestimmend für die Intensität der Schüleraktivität ist
natürlich das Vorwissen. Den wirklichen Ausschlag
gibt aber die intensive, interaktive Auseinandersetzung mit dem Thema auf der ikonischen Ebene, die
als Voraussetzung gegeben sein muss.
Tietze et al. betonen, dass gerade nach der interaktiven Arbeit mit Computerprogrammen “die gemeinsame Reflexion und Diskussion über die einzelnen Schritte des Mathematisierungsprozesses wichtig sind” (Tietze, Klika & Wolpers, S. 170) .
Vorschläge von Schülern sollten unbedingt aufgenommen und dürfen keinesfalls ohne zufrieden stellende Erklärung verworfen werden. Auch Humenberger und Reichel fordern “There must be time for
mistrials as well, and these must not simply be considered as wrong; there has to be an explanation” (Humenberger & Reichel, 1996, S. 201). Selbst wenn
manchmal regelrecht skurrile Vorschläge ins Rennen geschickt werden und man sich schnell in einem Wiederholungskurs “Funktionen und ihre Eigenschaften” wiederfindet. Ich sehe das aber als etwas Positives. Denn letztlich lässt sich an vielen,
auch ursprünglich nicht zielführenden Überlegungen
Sinnvolles anknüpfen. Außerdem ist auch das Einsehen mit einer Idee in einer Sackgasse gelandet zu sein
und die daraus gewonnen Erkenntnisse möglichst
gewinnbringend weiter zu verwenden eine wichtige Lernerfahrung. Immer wenn Schüler entdeckend
tätig werden “sind Irrwege, Querfeldeinpfade und
9
Sackgassen ganz natürliche und lehrreiche Erfahrungen.” (Krainer, 1993, S. 267). In diesem Sinn ist die
1
Besprechung der Funktion f (x) = 2
, a 6= 0
a + x2
zu sehen. Scheint der Graph anschaulich gut zu den
gewünschten Forderungen zu passen, so erfüllt die
Funktion letztlich doch nicht alle Ansprüche.
Dabei steht die genannte Funktion natürlich stellvertretend für alle jene, die argumentativ ähnlich zu behandeln sind. Denn je nach Ansatzpunkt und Unterrichtsverlauf wird man bei unterschiedlichen, zu besprechenden, Funktionstermen landen.
Eine grundsätzliche Überlegung fordert die Auswertung der in der Herleitung auftretenden Integrale. Auf Schulniveau Rist der Einsatz eines CAS bei
∞ −x2
der Berechnung von −∞
e dx , außer in Ausnahmefällen, unerlässlich. Daher ist auch die Entscheidung, alle weiteren Integrale mittels CAS auszuwerten, naheliegend. Ob man den - oben bewusst - “gemischt” gewählten Weg geht, der eine nähere Konfrontation mit den Integralen notwendig macht, oder
die Auswertung der Integrale mittels CAS aus dem
Zentrum der Überlegungen heraushält, hängt wesentlich vom Vorwissen der Schüler und der gewünschten Akzentuierung des Lehrers ab. Jedenfalls verträgt sich der Einsatz eines CAS meines Erachtens
sehr gut mit dem Charakter der Herleitung, die ja
auf Computereinsatz basiert. Überlegungen und Ideen der Lernenden zu fördern und einzubinden und
gleichzeitig den roten Faden nicht zu verlieren, ist die
zentrale Aufgabe des Lehrers bei der Herleitung des
Funktionsterms - zugegeben streckenweise ein Balanceakt. Zentral ist, dass die Lernenden an der Entwicklung der Funktionsgleichung aktiv beteiligt sind
und mathematischer Inhalt im genetischen Sinn entsteht.
Literatur
Barth F. und R. Haller (1988): Stochastik Leistungskurs. München: Ehrenwirt Verlag
Christmann N. (1980): Einführung in die Mathematik - Didaktik. Paderborn: Schöningh Verlag
Ebbmeyer B. und K. Stamm (1985): Die Approximation der Binomialverteilung durch
10
Schulfunktionen.
In:
Der
MathematischNaturwissenschaftliche Unterricht 38/7, S.
402 - 407
Hanisch G. (1995): Wozu ist der Mathematikunterricht gut? In: Grosser S. (Hrsg.): Didaktik-Reihe
der ÖMG, Heft 23, S. 106 - 127
Hauer-Typpelt P. (1998): Zugänge zur Normalverteilung und ihre fachdidaktische Analyse. Dissertation. Universität Wien
Hefendehl-Hebeker L. (2003): Erkenntnisgewinn in
der Mathematik. In: Leuders T. (Hrsg.): Mathematik Didaktik. Berlin: Cornelsen Verlag Scriptor, S.
107 - 118
Humenberger H. und H.-C. Reichel (1996): Problem
Solving as a Continuous Principle for Teaching:
Suggestions and Examples. In: Posamentier S. und
W. Schulz (Hrsg.): The Art of Problam Solving
Thousand Oaks, California: Corwin Press, S. 199
- 232
Krainer K. (1993): “Gesichertheit” versus “Ungesichertheit” - ein zentrales Dilemma im Mathematikunterricht. In: Schuhmann H. (Hrsg.): Beiträge zum Mathematikunterricht. Hildesheim: Verlag Franzbecker, S. 267 - 270
Meyer J. (2004): Schulnahe Beweise zum zentralen
Grenzwertsatz. Hildesheim, Berlin: Verlag Franzbecker
Strehl R. (1976): Wahrscheinlichkeitsrechnung. Freiburg i. Br.: Verlag Herder
Tietze, U.; Klika, M. und H. Wolpers (2002): Didaktik der Stochastik. Mathematikunterricht in der Sekundarstufe II, Band 3. Braunschweig/Wiesbaden:
Vieweg Verlag
Anschrift des Verfassers
Dr. Petra Hauer-Typpelt
Fakultät für Mathematik Universität Wien
Nordbergstraße 15
1090 Wien
Österreich
und
Landstraßer Gymnasium
Kundmanngasse 20-22
1030 Wien
Österreich
[email protected]
Herunterladen