Wahrscheinlichkeitsrechnung 8. Februar 2013 1 Geschichtliches Die mathematische Wahrscheinlichkeitstheorie fand ihre Anfänge in Frankreich (siehe [Gurtner] S. 5-6). Der Philosoph und Literat Chevalier de Méré (1607-1684) beschäftigte sich hauptberuflich mit dem Würfelspiel. Die Bank (de Méré) gewann immer dann, wenn ein Spieler bei vier Würfen mit je einem Würfel wenigstens eine Sechs warf. Die Grundlage dieser Regeln führten dazu, dass Herr de Méré sehr reich wurde. Um noch mehr Geld zu verdienen, änderte er die Regeln etwas ab. Die Bank gewann nun, wenn ein Spieler bei 4 Würfen wenigstens eine doppelte Sechs würfelte. Ab diesem Zeitpunkt verlor de Méré fast sein ganzes Vermögen. Der Chevalier de Méré stellte daraufhin im Jahr 1654 dem Mathematiker Blaise Pascal (1623-1662) zwei Fragen über die Wahrscheinlichkeit bei Glücksspielen. Daraufhin beschäftigten sich sowohl Pascal als auch der Mathematiker Pierre Fermat (1601-1655) mit der Wahrscheinlichkeitsrechnung. Aufgrund des niedrigen Entwicklungsstandes der Naturwissenschaft damaliger Zeit bildeten Glücksspiel und Fragen von Demographie und Versicherung noch lange Zeit den einzigen konkreten Gegenstand zur Entwicklung der Begriffe und Methoden der Wahrscheinlichkeitsrechnung. (siehe [Physikwiki])So beschäftigte sich zum Beispiel Graunt mit der Sterbewahrscheinlichkeit in Abhängigkeit vom Lebensalter, Johan De Witt (1625-1672) und Edmund Halley (1656-1742) stellten auf der Grundlage ähnlicher Überlegungen Tabellen für Rentenzahlungen auf. Auch Isaac Newton (1643-1727) nutzte wahrscheinlichkeitstheoretische Gedanken in der Histographie und der Fehlerrechnung und befasste sich in einem unveröffentlichten Manuskript um 1665 mit geometrischen Wahrscheinlichkeiten. Der formale mathematische Apparat, mit dessen Hilfe die entstehenden Aufgaben gelöst wurden, wurde von elementaren arithmetischen und kombinatorischen Methoden bestimmt. Das erste bekannte Buch, das sich mit der Wahrscheinlichkeitsrechnung beschäftigt, wurde im Jahr 1657 vom niederländischen Naturwissenschaftler Christiaan Huygens (1629-1695) verfasst. Es trug den Titel „De Ratiociniis in Aleæ Ludo“ (über Schlussfolgerungen beim Würfelspiel) und behandelt Fragen, die bei einem Briefwechsel zwischen Pascal und Fermat aufkamen. Huygens verwandte in diesem Werk aber nicht den Begriff "Wahrscheinlichkeit", sondern nutzte den schon von Pascal gebrauchten "Wert der Hoffnung" - heute als Erwartungswert bezeichnet. Huygens wurde 1663 aufgrund seiner Leistungen auf dem Gebiet der Astronomie als erster Ausländer in die Londoner Royal Society aufgenommen und führte er aber auch die Wahrscheinlichkeitsrechnung in England ein, wo sie auf fruchtbaren Boden traf. Bereits ein Jahr später benutzte John Tillotson, Erzbischof von Canterbury, in “On the Wisdom of Being Religious” Huygens Erwartungswert, um zu beweisen, dass sich der Glaube an Gott lohne. Sei die Wahrscheinlichkeit, dass Gott tatsächlich existiert, noch so gering, so habe aufgrund des unendlichen Gewinns im Himmel das „Spiel Gottes” einen unendlich hohen Erwartungswert. Zu Beginn des 17. Jahrhunderts entwickelte sich die Wahrscheinlichkeitsrechnung als eine Theorie der Glücksspiele. Doch bald darauf erkannten Versicherungsgesellschaften ihren praktischen Nutzen und begannen sie für die Berechnung von diversen Unfallswahrscheinlichkeiten zu verwenden. 1 Wichtige Fortschritte in der Entwicklung der Wahrscheinlichkeitsrechnung sind dem Schweizer Mathematiker Jakob Bernoulli (1655-1705) zuzuschreiben. Sein Hauptverdienst ist wohl der Satz von Bernoulli, auch das Gesetz der großen Zahlen genannt. „Das Gesetz der großen Zahlen besagt, dass sich die relative Häufigkeit eines Zufallsergebnisses immer weiter an die theoretische Wahrscheinlichkeit für dieses Ergebnis annähert, je häufiger das Zufallsexperiment durchgeführt wird.“ Erkenntnisse auf dem Gebiet der Kombinatorik (beispielsweise taucht hier erstmals der Begriff Permutation auf) und eine vollständige Diskussion der Binomialverteilung, aber es wurden auch erstmals unendliche Folgen von identischen Zufallsprozessen untersucht. Diese sind für den Spezialfall zweier möglichen Ausgänge noch heute als Bernoulli-Ketten bekannt. Die Weiterentwicklung der Wahrscheinlichkeitsrechnung wurde stark vorangetrieben durch die bedeutenden Anforderungen, welche die Naturwissenschaften stellten. Die bedeutendsten Fortschritte sind zweifellos dem französischen Mathematiker Pierre Laplace (1749-1827) zu verdanken, aber auch Abraham de Moivre (16671754) und Siméon Poisson (1781-1840) haben entscheidende Erkenntnisse eingebracht. Abraham de Moivre leitete in einer 1733 veröffentlichten Arbeit die Nominal-Verteilung der Wahrscheinlichkeit als Näherung der Binominalverteilung ab und stellte eine zur Stirlingschen Formel äquivalente Formel auf. Zuvor im Jahr 1718 publizierte er bereits das Buch "The doctrine of chances", in welchem er Methoden zur Lösung von Aufgaben, die mit Glücksspielen im Zusammenhang stehen, systematisch darstellte und vervollkommnete. 1730 folgte dann "Miscellanea analytica" (Analytische Beiträge). Theoretische Probleme der Völkerkunde und des Versicherungswesens verband Leonhard Euler (1707-1783) mit Fragen der Wahrscheinlichkeitsrechnung und Nikolaus Bernoulli (1695-1726) formulierte das "Petersburger Spiel", mit dessen Lösung sich viele Gelehrte beschäftigten. Die Frage nach der Berechnung der Wahrscheinlichkeit von Hypothesen, wenn schon Beobachtungsergebnisse vorliegen, warf Daniel Bernoulli (1700-1782) als erster auf. Die Lösung hierzu stammt von Thomas Bayes (gest. 1751), welcher aus den nach ihm benannten Formeln noch weitere Ausdrücke zur Lösung spezieller Probleme herleitete. Den nächsten großen Fortschritt brachte Simon Pierre de Laplace (1749-1827), der in seinem 1812 veröffentlichten Buch "Théorie analytique des probabilités" als erster eine Definition der Wahrscheinlichkeit gab. Sein Werk stellte eine Widerlegung der damals anerkannten These dar, dass eine strenge mathematische Behandlung der Wahrscheinlichkeit nicht möglich sei. Hierbei definiert Laplace die Wahrscheinlichkeit eines Ereignisses als Ergebnis aus der Anzahl der dem Ereignis günstigen Fälle, dividiert durch die Anzahl der überhaupt möglichen Fälle. Laplaces Zugang zur Wahrscheinlichkeit war intuitiv, da er hinter allen Phänomenen eine Gleichverteilung vermutete. Die Laplacesche Definition bezieht sich auf eine ideale Welt vollkommener Symmetrie. Dabei wird das Definitionsproblem jedoch zu einem Anwendungsproblem, da man es nur auf die Frage verschiebt, wie weit man mit dieser idealen Welt Wirklichkeit erfassen kann. Poisson verallgemeinerte sowohl das Bernoullische Gesetz der großen Zahlen als auch die Sätze von MoivreLaplace auf den Fall unabhängiger Versuche, wobei die Wahrscheinlichkeit für das Eintreten eines Ereignisses von der Nummer des Versuchs abhängig ist. In diesem Zusammenhang leitete er auch eine neue Wahrscheinlichkeitsverteilung her, die Poisson-Verteilung. Ein Aufschwung der Wahrscheinlichkeitsrechnung setzte zu Beginn des 19. Jahrhunderts ein, angeregt vor allem durch unterschiedliche naturwissenschaftliche Fragestellungen sowie Anwendungen in der Physik. So berechnete der österreichische Physiker Ludwig Boltzmann (1844-1906) die Wahrscheinlichkeiten der Geschwindigkeiten von Gasmolekülen. Weiters legte der britische Mathematiker Karl Pearson (1857-1936) den Grundstein für die mathematische Statistik. Die Entwicklung ist ab Mitte des 19. Jh. bis fast Ende der zwanziger Jahre des 20. Jh. in bedeutendem Maße mit den Namen russischer Gelehrter wie Pafnuti L. Tschebyschew (1821-1894), A.A. Markow und A.M. Ljapunow verknüpft. Vorbereitet wurde dieser Erfolg durch W.J. Bunjakowski, welcher die Untersuchungen über die Anwendung der Wahrscheinlichkeitsrechnung auf die Statistik, insbesondere auf Versicherungsprobleme und 2 die Bevölkerungsstatistik in Rußland, weitgehend förderte. Er schrieb auch das erste russische Lehrbuch der Wahrscheinlichkeitsrechnung, das einen großen Einfluß auf die Entwicklung des Interesses an dieser Wissenschaft in Rußland ausübte. P.L. Tschebyschew, A.A. Markow und A.M. Ljapunow führten den Begriff der zufälligen Größe ein und verwendeten ihn ausgiebig, worin auch die Hauptbedeutung ihrer Arbeiten besteht. So entstanden zum Beispiel die "Markowschen Ketten" und der Grenzwertsatz von Ljapunow. Allerdings gab es bis zum 20. Jahrhundert keine präzise Grundlage für die Wahrscheinlichkeitsrechnung. 1899 erklärte der deutsche Mathematiker David Hilbert (1862-1943) dieses Fehlen einer Grundlage als eines der wichtigsten ungelösten mathematischen Probleme. Ein entscheidende Beitrag war die Entwicklung der Maßtheorie durch Émile Borel im Jahr 1901, woraus wenig später die Integrationstheorie nach Henri Lebesgue. Ab 1918 entwickelte der österreichische Mathematiker Richard von Mises eine "statistische Wahrscheinlichkeitstheorie", bei welcher er die Wahrscheinlichkeit als Grenzwert von relativen Häufigkeiten definiert. In den dreißiger Jahren wurden dann die Grundlagen für die Theorie der stochastischen (zufälligen) Prozesse geschaffen, die heute eine der Hauptforschungsrichtung in der Wahrscheinlichkeitsrechnung ist.bundenes Wachsen deren Bedeutung. 2 Mathematisierung (siehe [Montag] und [Galata Scheid]) Das Zufallsexperiment ist ein Vorgang der • nach bestimmten Vorschriften ausgeführt wird • beliebig oft wiederholbar ist • bei dem das Ergebnis vom Zufall abhängt • bei welchem die Ergebnisse bei mehrfacher Durchführung voneinander unabhängig sind. Beispiel: Werfen eines Würfels: Elementarereignis: Jedes Zufallsexperiment besitzt eine Reihe möglicher elementarer Ereignisse mit der Eigenschaft dass immer nur ein bestimmtes Ereignis auftreten kann. Beispiel: Zufallsexperiment: Werfen eines Würfels (sechs mögliche Elementarereignisse [1. . . ..6]) Ereignisraum: Besitzt ein Zufallsexperiment n mögliche Elementarereignisse, dann bildet die Menge aller Elementarereignisse den Ereignisraum E, dieser kann endlich oder unendlich sein. Beispiele: • Werfen eines Würfels E = {1, 2, 3, 4, 5, 6} • Das einmalige Werfen einer Münze E = {Zahl, Kopf} • Zweimaliges Werfen einer Münze E = {KK, KZ, ZK, ZZ} Ergebnis: Teilmenge von des Ergeignissraumes: Würfeln einer geraden Zahl 3 2.1 Klassischer Wahrscheinlichkeitsbegriff - Kombinatorik Die Wahrscheinlichkeit ist ein Maß, das zur Quantifizierung der Sicherheit bzw. Unsicherheit des Eintretens eines bestimmten Ereignisses dient, das im Rahmen eines Zufallsexperimentes abläuft. Um P (E) = Anzahl der günstigen F älle Anzahl der möglichen F älle berechnen zu können braucht muss man die “Anzahl von Fällen” bestimmen. 1. Geordnete Stichproben mit Zurücklegen: Die Objekte sind unterscheidbar (geordnet). Die Anzahl der Möglichkeiten änderte sich von Wiederholung zu Wiederholung nicht (zurücklegen). Anzahl der Möglichkeiten für Stichproben vom Umfang k aus einer Menge mit n Elementen : nk 2. Geordnete Stichproben ohne Zurücklegen: Die Objekte sind unterscheidbar (geordnet). Die Anzahl der Möglichkeiten änderte sich von Wiederholung zu Wiederholung (kein zurücklegen). Anzahl der Möglichkeiten für Stichproben vom Umfang k aus einer Menge mit n Elementen : nk = n · (n − 1) · . . . · (n − k + 1) = n! (n − k)! 3. Ungeordnete Stichproben mit Zurücklegen: Die Objekte sind nicht unterscheidbar (ungeordnet). Die Anzahl der Möglichkeiten änderte sich von Wiederholung zu Wiederholung nicht (zurücklegen). Anzahl der Möglichkeiten für Stichproben vom Umfang k aus einer Menge mit n Elementen : (n + k − 1)! n+k−1 = k k! (n − 1)! 4. Ungeordnete Stichproben ohne Zurücklegen: Die Objekte sind nicht unterscheidbar (ungeordnet). Die Anzahl der Möglichkeiten änderte sich von Wiederholung zu Wiederholung (kein zurücklegen). Anzahl der Möglichkeiten für Stichproben vom Umfang k aus einer Menge mit n Elementen : n! n = k k! (n − k)! 2.2 Statistischer Wahrscheinlichkeitsbegriff Hier betrachtet man die Wahrscheinlichkeit P (A) als den Wert, gegen den die relative Häufigkeit des Ereignisses A bei unendlich vielen, unabhängigen Wiederholungen des Zufallsexperiments unter identischen Bedingungen konvergiert. Sei hn (A) die absolute Häufigkeit des Auftretens von A bei n-maliger Wiederholung des Zufallsexperiments. Dann ist die relative Häufigkeit von A: hn (A) fn (A) = n Die Wahrscheinlichkeit von A ist nach dem statistischen Wahrscheinlichkeitsbegriff definiert als: P (A) = lim fn (A) n→∞ Wegen 0 ≤ fn (A) ≤ 1 ∀n ∈ N, gilt 0 ≤ P (A) ≤ 1. Beispiel: Zufallsexperiment: Werfen einer Münze, Konvergenz gegen 1/2 4 2.3 Axiomatischer Wahrscheinlichkeitsbegriff Als Lösung des von Hilbert formulierten Problems wird heute die 1933 veröffentlichte Wahrscheinlichkeitsdefinition des russischen Mathematikers Andrej N. Kolmogorow (1903-1987) angesehen. Axiomensystem: 1. Jedem beliebige Ereignis A aus einer Menge von möglichen Ereignissen kann eine positive reelle Zahl als Wahrscheinlichkeit zugeordnet werden. Nichtnegativtät: 0 ≤ P (A) 2. Das sichere Ereignis hat die Wahrscheinlichkeit 1. Normierung: P (E) = 1 3. Die Wahrscheinlichkeit, dass entweder das eine oder das andere von zwei unabhängigen Ereignissen eintritt, entspricht der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. P (A ∪ B) = P (A) + P (B). 2.4 Wahrscheinlichkeitsverteilungen Unter einer Zufallsvariablen X eines Zufallsexperiments versteht man eine Funktion, die jedem Ereignis Ei der Ergebnismenge eien Zahl zuordnet: X : Ei → X (Ei ) Ordnet man nun jedem Wert dieser Zufallsvariablen ihre Wahrscheinlichkeit zu, so entsteht eine Wahrscheinlichkeitsverteilung (Wahrscheinlichkeitsfunktion). Unter einer Wahrscheinlichkeitsverteilung f der Zufallsvariablen X versteht man die Funktion mit f : xi → P (X = xi ): Der Funktionswert gibt die Wahrscheinlichkeit an, dass X den Wert xi annimmt. 2.4.1 Diskrete Wahrscheinlichkeitsverteilung - Bsp. Binomialverteilung Die Binomialverteilung (siehe [poisson]) ist eine zweiparametrige, diskrete Verteilung. Sie gibt die Wahrscheinlichkeit für die Anzahl des Auftretens eines Ereignisses bei der mehrmaligen Ausführung eines Zufallsversuchs mit zwei möglichen Ergebnissen, konstanter Wahrscheinlichkeit und voneinander unabhängigen Ausführungen an (Bernoulliexperiment). n P (X = k) = pk (1 − p)n−k k Die Parameter sind n und p. Der Parameter n gibt die Anzahl der Wiederholungen des Zufallsexperiments an, p die Wahrscheinlichkeit für das Auftreten eines Ereignisses bei einem einzelnen Versuch. Die Verteilungsfunktion der Binomialverteilung ist die Summe der Wahrscheinlichkeiten von null bis zum zu errechnenden Wert. k X n P (X ≤ k) = pi (1 − p)n−i i i=0 Klassisches Beispiel hierfür ist das mehrmalige Werfen einer Münze, oder das Würfeln von Sechsern bei einem Würfelspiel wird häufig verwendet. Es sind zwei Ereignisse definiert, „Würfeln einer Sechs“ und „Würfeln einer anderen Zahl“. Die Wahrscheinlichkeit eine Sechs zu würfeln, ist immer p = 1/6, die eine andere Zahl als Sechs zu würfeln (1-p) = 5/6. 5 Abbildung 1: Wahrscheinlichkeitsfunktion der Binomialverteilung 2.4.2 Stetige Wahrscheinlichkeitsverteilung - Bsp. Normalverteilung Eine stetige Zufallsvariable X mit der Wahrscheinlichkeitsdichte f : R → R, gegeben durch 1 x−µ 2 1 f (x) = √ e− 2 ( σ ) σ 2π heißt N µ, σ 2 -verteilt, normalverteilt mit den Parametern µ (Erwartungswert) und σ 2 (Varianz). Im Fall µ = 0 und σ 2 = 1 wird diese Verteilung Standardnormalverteilung genannt. Die Dichtefunktion der Standardnormalverteilung ist 1 2 1 ϕ(x) = √ e− 2 x 2π Die Verteilungsfunktion der Normalverteilung ist gegeben durch: 1 F (x) = √ σ 2π 2.5 ˆ x 1 e− 2 ( t−µ 2 σ ) dt −∞ Maßtheorie, σ-Algebra1 • Das Grundgerüst der maßtheoretischen Wahrscheinlichkeitstheorie bildet der Wahrscheinlichkeitsraum (Ω, A, P ). Dabei bezeichnet Ω in der Integrationstheorie den Definitionsbereich der zu integrierenden 1 http://de.wikipedia.org/wiki/Geschichte_der_Wahrscheinlichkeitsrechnung 6 Abbildung 2: Normalverteilung Funktionen. Hier ist es die Menge aller elementaren Ereignisse, von denen nur jeweils genau eines gleichzeitig eintreten kann – etwa die sechs Ausgänge „1”, „2”, . . . , „6” eines Würfelwurfes. • A ist eine σ-Algebra auf Ω und enthält Teilmengen von Ω, also aus Elementarereignissen zusammengesetzte Ereignisse (beispielsweise das Ereignis, dass der Würfel eine gerade Augenzahl zeigt, also {2, 4, 6}). Dieσ-Algebra muss jedoch nicht alle Teilmengen von Ω enthalten, sondern nur solche, für die eine sinnvolle Wahrscheinlichkeit definiert werden kann. • P ist ein Maß, das jedem Ereignis A ∈ A eine Wahrscheinlichkeit P (A) ≥ 0 zuordnet, sodass gewisse Bedingungen erfüllt sind. Da Maße von Borel ursprünglich geometrisch als Verallgemeinerung von Flächeninhalten motiviert waren, wird beispielsweise gefordert, dass die leere Menge das Maß Null hat, also P (∅) = 0. In die Sprache der Stochastik übersetzt bedeutet das, dass die Wahrscheinlichkeit, dass keines der in Ω aufgeführten Ereignisse eintritt, gleich Null ist, Ω das Experiment also vollständig beschreibt. Des Weiteren wird sinnvollerweise gefordert, dass das Maß (die Fläche) der Vereinigung disjunkter Mengen gleich der Summe der einzelnen Maße (Flächen) ist. Hier bedeutet das, dass falls zwei Ereignisse nie gleichzeitig eintreten können (wie eine gerade und eine ungerade Augenzahl im selben Wurf: die Mengen {1, 3, 5} und {2, 4, 6} sind disjunkt), die Wahrscheinlichkeit dafür, dass eines der beiden auftritt, genau der Summe der einzelnen Wahrscheinlichkeiten entspricht. Das Gleiche wird auch für abzählbare, aber nicht für überabzählbare Vereinigungen gefordert. Der einzige Zusatz, der in der Wahrscheinlichkeitstheorie gegenüber der gewöhnlichen Maßtheorie gemacht werden muss, ist die Normierung des gesamten Raumes auf Wahrscheinlichkeit eins, also P (Ω) = 1. • Mengen, deren Maß Null ist, werden als Nullmengen bezeichnet, wie etwa eine Gerade in der Ebene, die keine Fläche hat. In der Wahrscheinlichkeitstheorie sagt man von Nullmengen, dass sie fast sicher nicht eintreten. Dadurch wird das oben beschriebene Dilemma, dass sich Zufallsexperimente aus lauter unmöglichen Ereignissen zusammensetzen können, aufgelöst. Auch eine Ebene setzt sich aus vielen parallelen Geraden zusammen, von denen jede die Fläche Null hat. Da aber überabzählbar viele Geraden im Spiel sind, entsteht kein Widerspruch zu den von P geforderten Eigenschaften. Dadurch kann erstmals klar zwischen einem Ereignis unterschieden werden, das zwar eintreffen kann, aber Wahrscheinlichkeit Null hat (das ist eine Nullmenge), und einem solchen, das überhaupt nicht eintreten kann (etwa die Augenzahl sieben beim Würfelwurf, die nicht in Ω enthalten ist). 7 Abbildung 3: Die Brownsche Bewegung 3 Physikalische Anwendungen 3.1 Brown’sche Bewegung Beobachtet man sehr kleine Teilchen die in einer Flüssigkeit oder einem Gas schweben, so beobachtet man Bewegungen deren Richtung und Geschwindigkeit dauernd wechseln. Die Bewegungen sind umso lebhafter je kleiner die Teilchen sind. Dieses Phänomen wurde vom Botaniker R. Brown (1773 - 1858) entdeckt. Die Energie der Bewegung kleinster Teilchen ist aber gerade die Wärmeenergie, d.h. dass Wärme als statistisches Phänomen aufgefasst werden kann. Die Bahn eines Teilchens wechselt die Richtung so oft, dass man nur eine mittlere Verschiebung des Teilchnes wahrnimmt. A. Einstein definierte 1905 den Wiener Prozess in seiner heutigen Gestalt. Einsteins Motivation war es, die Bewegung der brownschen Partikel durch die molekulare Struktur des Wassers zu erklären – ein Ansatz, der damals äußerst kontrovers war, heute aber unbestritten ist – und diese Erklärung mathematisch zu untermauern. Damit gelang es ihm für kugelförmige Teilchen mit dem Radius r das mittlere Verschiebungsquadrat 2 hr (t)i = kT t 3πrη zu berechnen. Hierbei ist η die Viskosität und T die Temperatur des Fluides. Ein Stochastischer Prozess ist die mathematische Beschreibung von zeitlich geordneten, zufälligen Vorgängen. Er ist dann eine Familie von Zufallsvariablen Xt . Ein Wiener-Prozess ist ein zeitstetiger stochastischer Prozess, der normalverteilte, unabhängige Zuwächse hat. Benannt wurde der Prozess, der auch als Brownsche Bewegung bekannt ist, nach dem amerikanischen Mathematiker Norbert Wiener. 3.2 Quantenstatistik (siehe [semibyte], [Fichtner],[Mahler]) • Maxwell-Boltzmann: Beliebig viele unterscheidbare Teilchen in einem Zustand; • Bose-Einstein: Beliebig viele ununterscheidbare Teilchen in einem Zustand; • Fermi-Dirac: Maximal eines von ununterscheidbaren Teilchen in einem Zustand. 8 Abbildung 4: Vergleich der mittleren Besetzungszahlen der Statistiken Maxwell-Boltzmann, Bose-Einstein und Fermi-Dirac Abbildung 5: Besetzungszahlen eines Fermigases im Grundzustand und für eine angeregte Konfiguration 9 Abbildung 6: Fermi Dirac Verteilung bei verschiedenen Temperaturen 3.2.1 Fermi-Dirac-Statistik Quantenstatistik für ein aus Fermionen (Elementarteilichen mit halbzahligem Spin, sie unterliegen dem PauliPrinzip) bestehendes im Gleichgewicht befindliches System. Die Energie eines solchen Fermigases berechnet sich dadurch, dass a man die Einteilchenenergien der einzelnen Fermionen aufaddiert. Anders ausgedrükt: Man bestimmt die möglichen Einteilchenenergien des Systems und die Besetzungszahl des entsprechenden Einteilchenniveaus. Mit Hilfe der vollständigen Induktion über N kann man zeigen, dass die Zahl der Konfigurationen für k Teilchen N in N Zuständen den Wert annimmt. Die Fermi-Verteilung gibt die mittlere Zahl ni der miteinander k nichtwechselwirkenden Fermionen im Zustand i mit der mittleren Energie Ei an: ni = exp 2s + 1 i Ei −µ kB T +1 Diese Besetzungsverteilung beschreibt allgemein die Gleichgewichtsverteilung in einem thermodynamischen System, in dem pro Zustand maximal ein Teilchen untergebracht werden kann, d.h. wo auf feste vorgegebene Plätze immer nur ein Teilchen untergebracht werden kann. 10 3.2.2 Bose-Einstein-Statistik Sie beschreibt die statistische Verteilung von nach der Quantenmechanik nichtunterscheidbaren Teilchen mit ganzzahligem Spin (0, 1, 2, ...), d.h. Bosonen (sie unterliegen nicht dem Pauli-Prinzip). Ein Zustand i darf von beliebig vielen Teilchen besetzt sein. Die Eigenschaft der Photonen zu den Bosonen zu gehören, ist für das Laserprinzip von Bedeutung. Es können sich beliebig viele Photonen in ein und dem selben Zustand an ein und demselben Ort mit identischer Phase befinden. Die Bose-Einstein-Verteilung beschreibt die mittlere Teilchenzahl ni nicht miteinander in Wechselwirkung stehender Teilchen mit ganzzahligem Spin im Zustand i mit der Energie Ei . ni = exp 2s + 1 i Ei −µ kB T −1 wobei: si Spin, ni Teilchenzahl, µ chemisches Potential, Ei Energie des i-ten Zustandes Phononen: Bose-Einstein-Verteilung gibt die Wahrscheinlichkeitsverteilung n (ω) einen Zustand der Energie ~ω im thermischen Gleichgewicht bei der Temperatur T zu finden: 1 n (ω, T ) = exp ~ω kB T −1 Ein Phonon ist ein Quasiteilchen, das in der theoretischen Festkörperphysik verwendet wird, um die Eigenschaften der quantenmechanisch beschriebenen Gitterschwingungen in einem Kristall mit Hilfe eines vereinfachten Modells beschreiben zu können. Phononen sind delokalisiert, das heißt ein Phonon existiert im ganzen Kristallgitter und lässt sich keinem bestimmten Ort zuordnen. Literatur [Gurtner] Markus Gurtner: Bedingte Wahrscheinlichkeiten, Die Lösung des Ziegenproblems. Fachbereichsarbeit aus Mathematik, members.chello.at/gurtner/Fachbereichsarbeit.pdf [Physikwiki] https://www.univie.ac.at/physikwiki/index.php/LV013:LV-Uebersicht/WS07_08/ Arbeitsbereiche/Wahrscheinlichkeitsrechnung [Montag] Torsten Montag: Statistik III - Wahrscheinlichkeitsrechnung, GRIN Verlag [Galata Scheid] Robert Galata, Sandro Scheid: Deskriptive und Induktive Statistik für Studierende der BWL, Carl Hanser Verlag, München [poisson] http://www.poissonverteilung.de/binomialverteilung.html, Zugriff am 8.2.2012 [semibyte] http://www.semibyte.de/wp/physics/atomphysics-qm/grundlagen-quantenmechanik-undstatistik/ [Fichtner] Manuskript zur Vorlesung Grundlagen der Quantenmechanik und Statistik – basierend auf Vorlesungen gehalten von H. Fichtner, Fakultät für Physik und Astronomie der Ruhr-Universität Bochum, Institut für Theoretische Physik Weltraum- und Astrophysik – Bochum 2009 [Mahler] Skript zur Vorlesung: Thermodynamik und Statistik von Prof. Dr. G. Mahler, Wintersemester 2001 / 2002, Version September 2005 11