Technische Universität Berlin Skript zur Vorlesung Mathematische Methoden der Mechanik und Elektrodynamik (SoSe 2006) von Prof. Dr.-Ing. Gerd Brunk Institut für Mechanik Fachgebiet Mechanik und Elektrodynamik Technische Universität Berlin, Germany Straße des 17. Juni 135 10623 Berlin 16. Mai 2006 Erstellung dieser druckreifen Form durch: 1 U. Herbrich M. Heß und P. Löwis INHALTSVERZEICHNIS INHALTSVERZEICHNIS Inhaltsverzeichnis 1 Symbolverzeichnis 1.1 Allgemeine Symbole . . . . . . . . . . . 1.2 Dynamik . . . . . . . . . . . . . . . . . 1.3 Vektorrechnung . . . . . . . . . . . . . . 1.4 Bezugssysteme, Koordinaten . . . . . . 1.5 Mechanik . . . . . . . . . . . . . . . . . 1.6 Kontinuumsmechanik . . . . . . . . . . 1.7 Thermodynamik . . . . . . . . . . . . . 1.8 Elektrodynamik . . . . . . . . . . . . . . 1.9 Wahrscheinlichkeitsrechnung/Stochastik 2 Überblick der Vorlesung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 5 5 6 6 7 7 8 9 3 Stochastische Prozesse 12 3.1 Stochastische Zeitfunktion . . . . . . . . . . . . . . . . . . . . . . 19 2 ABBILDUNGSVERZEICHNIS TABELLENVERZEICHNIS Abbildungsverzeichnis 1 2 3 4 Konzept der Einzelkraft und des Einzelmomentes . . . . . . . . . Mögliche Situationen zweier Schnittmengen im Venn-Diagramm gleichverteilte Wahrscheinlichkeitsdichte und -verteilung eines kontinuierlichen Ereignisses . . . . . . . . . . . . . . . . . . . . . . . Schema des kartesischen Produktes . . . . . . . . . . . . . . . . . Tabellenverzeichnis 3 11 14 16 17 1 SYMBOLVERZEICHNIS 1 Symbolverzeichnis 1.1 Allgemeine Symbole C En N R Vn e V A C S U V ∀a ∃ ∈ |a| trA {a} [a] <a> ab a=b a≡b a := B a 7→ b a⇔b ˙ (·) R{·} I{·} δ(t) h(t) L[·] 1.2 ˆ (·) K g(t) G(Ω) Ω Y Z Menge der komplexen Zahlen n-dimensionaler Euklidischer Vektorraum Menge der natürlichen Zahlen Menge der reellen Zahlen n-dimensionaler Vektorraum dualer Vektorraum Flächengebiet Kontur Raum der gerichteten Strecken Umgebung Raumgebiet (Verschiebungsvektoren, shifters) für alle a es existiert in, Element aus Betrag von a Spur (trace) des Tensors a Maßzahl der Größe a Maßeinheit der Größe a physikalische Dimension der Größe a dyadisches Produkt der Vektoren a und b a ist gleich b a ist äquivalent gleich b a ist definiert als b a wird abgebildet in b a gilt genau dann, wenn auch b gilt ˙ =d(·)/dt Zeitableitung von (·), (·) Realteil von (·) Imaginärteil von (·) Dirac-Distribution Sprungfunktion Differentialoperator Dynamik komplexe Amplitude von (·) Steifigkeitsoperator Greensche Funktion, Relaxationsfunktion, Nachwirkungskern komplexe Übertragungsfunktion Erregerfunktion Impedanz nach der Ladungs-Koordinaten-Analogie Impedanz nach der Fluß-Koordinaten-Analogie 4 1.3 1.3 Vektorrechnung Vektorrechnung a · s̃ a·s A×B a×b A⊗B a∧b Ti f (·) â (·)T (·)∗ (·)† δij 1.4 1 SYMBOLVERZEICHNIS Skalarprodukt zwischen a und s̃ inneres Produkt zwischen a und s kartesisches Produkt (zwischen Mengen) vektorielles äußeres Produkt oder Kreuzprodukt (zwischen Vektoren) tensorielles äußeres Produkt (zwischen Vektorräumen) tensorielles äußeres Produkt charakteristische Invarianten des Tensors T duale Größe zu (·) transformierte Größe zu a transponierte Größe komplex konjugierte Größe komplex konjugiert und transponiert (= Hermitesch) Kronecker-Symbol Bezugssysteme, Koordinaten bλ = bλ C {ei } iλ KR Q q Q P S, Ŝ, Se SI vIP vIQ vI Q̂ vP vQ vQ̂ v̂P v̂Q v̂Q̂ mitbewegte kartesische Basis verallgemeinerter Coriolis-Tensor kartesische Basis kartesische Basis objektive Restkraft Beobachterpunkt, fest in S Koordinaten orthogonaler Tensor, Drehtensor materieller Punkt Bezugssysteme Inertialsystem Absolutgeschwindigkeit des materiellen Punktes P Absolutgeschwindigkeit des in S festen Beobachterpunktes Q Absolutgeschwindigkeit des in Ŝ festen Beobachterpunktes Q̂ Relativgeschwindigkeit von P gegenüber S Relativgeschwindigkeit von Q gegenüber S, da Q aber in S fest ist, verschwindet sie Relativgeschwindigkeit von Q̂ gegenüber S Relativgeschwindigkeit von P gegenüber Ŝ Relativgeschwindigkeit von Q gegenüber Ŝ Relativgeschwindigkeit von Q̂ gegenüber Ŝ, da Q̂ aber in Ŝ fest ist, verschwindet sie 5 1.5 1.5 Mechanik Mechanik a, a c C d E T F, F g, g I, J k ℓ m M, M µ µ0 N ω, ω P Pe t σ v, v W W∗ x ξ 1.6 B C E F H R x ξ U V 1 SYMBOLVERZEICHNIS Beschleunigung Federsteifigkeit (auch k) Schwerpunkt Vektor der Ursprungsverschiebung kinetische Energie kinetische Ergänzungsenergie Kraft Erdbeschleunigung Impuls Federsteifigkeit (auch c) Länge Masse Moment Gleitreibungszahl Haftreibungszahl Normalkraft Winkelgeschwindigkeit Leistung äußere Leistung Zeit Normalspannung Geschwindigkeit Formänderungsenergie Formänderungsergänzungsenergie Ort(svektor) Elementvektor Kontinuumsmechanik linker Cauchy-Greenscher Verzerrungstensor rechter Cauchy-Greenscher Verzerrungstensor Greenscher Verzerrungstensor lokaler Plazierungswechsel, transponierter Bewegungsgradient logarithmischer Verzerrungstensor Drehtensor, Versor Ort(svektor) in der Momentanlage / -konfiguration Ort(svektor) in der Bezugslage / -plazierung rechter Strecktensor, U2 = FT · F linker Strecktensor, V2 = F · FT 6 1.7 1.7 α c cs Φ k k̄ n Pq T Θ Θi ϑ S Σ U 1.8 Thermodynamik 1 SYMBOLVERZEICHNIS Thermodynamik Temperaturbeiwert, Dehnungskoeffizient isotherme Steifigkeit isentrope (adiabate) Steifigkeit freie Energie differentieller Wärmeübertragungskoeffizient finiter Wärmeübertragungskoeffizient Nachgiebigkeit Wärmezufuhr absolute Temperatur Kontakttemperatur eines Systems innere Temperatur eines Systems Temperaturdifferenz an der Systemgrenze Entropie Entropieproduktion innere Energie Elektrodynamik A b, b C e, e Φ γ h, h I[A] i j, j κ L m, m M, M µ µ0 Ψ Q R u vm Vm wm Wm We Arbeit magnetische Flußdichte Kapazität elektrische Feldstärke magnetischer Fluß Leitfähigkeit magnetische Feldstärke Strom durch die Fläche A Strom Stromdichte magnetische Suszeptibilität Induktivität Magnetisierung magnetisches Moment Permeabilität Permeabilität des Vakuums Verkettungsfluß Ladung(smenge) Widerstand Spannung magnetische Ergänzungsenergiedichte magnetische Ergänzungsenergie magnetische Energiedichte magnetische Energie elektrische Energie 7 1.9 1.9 Wahrscheinlichkeitsrechnung/Stochastik 1 SYMBOLVERZEICHNIS Wahrscheinlichkeitsrechnung/Stochastik ∅ (·) ∩ ∪ \ A, B, C {Ai } G H(A) P leere Menge, Leermenge Komplement von (·) Durchschnitt von Mengen Vereinigung von Mengen Differenz von Mengen Ereignisse Elementarereignis Grundgesamtheit relative Häufigkeit von A Wahrscheinlichkeit,Probabilität 8 2 2 ÜBERBLICK DER VORLESUNG Überblick der Vorlesung In dieser Veranstaltung wird ein Übergewicht auf die mathematischen Verfahren gelegt, wie sie zum Beispiel in der Mechanik und Elektrodynamik Anwendung finden. Ebenso gut können die Lösungsverfahren auch auf andere Gebiete der Physik, Chemie etc. übertragen werden. Nicht in erster Linie soll der physikalische Ursprung von auftretenden Gleichungen gesehen werden, wir wollen die Physik jedoch nicht völlig außen vor lassen. Die Vorlesung gliedert sich in vier Bereiche, die an manchen Schnittstellen eng miteinander verbunden und somit auch nicht ganz unabhängig voneinander betrachtet werden können. Zwei dieser Themen werden schwerpunktmäßig beleuchtet: • Anwendung von Integraltransformationen in quasi-statischen und dynamischen Problemen: Es sollen die Fourier- als auch die Laplace-Transformation vorgestellt werden. Im Vordergrund werden lineare Differentialgleichungen, Integralgleichungen bzw. Integrodifferentialgleichungen untersucht. Mit Hilfe der zuvor genannten Integraltransformationen ist eine Lösbarkeit von autonomen Systemen gewährleistet. Ein nicht-autonomes System ergibt sich bereits, falls die Koeffizienten in der Differentialgleichung zeitabhängig werden. In der Regelungstechnik spricht man bei in dieser Hinsicht zeitabhängigen Systemen von “adaptiven Systemen”, weil man versucht, durch zeitvariable Anpassung der Regelungsparameter trotzdem eine stabile Regelung - “Sollwert=Istwert” - zu erreichen. Falls schnelle Schwingungen der Koeffizienten linearer Systeme um eine Mittellage stattfinden, so ist die Rede von rheolinearen Systemen, welche ebenfalls zu der Klasse der nicht-autonomen Systeme gehören. Die Laplace-Transformation wird häufig bei Anfangswertproblemen, wie zum Beispiel Einschalt- und Hochlaufvorgängen verwendet. Diese Vorgänge bezeichnet man als Schaltvorgänge, Übergangsvorgänge, oder aus dem Lateinischen stammend, Transienten. Bei nichtlinearen und/oder nichtautonomen Systemen können Fourier-Reihen verwendet werden, jedoch finden die Fourier-Transformationen bei diesen Systemen nur bedingt Anwendung. Methoden von linear-elastischen Systemen können - besonders bei Vorhandensein von materieller und kinematischer Symmetrie auch auf linear-visko-elastische Systeme übertragen werden. Für den Fall der Quasistatik können beim linear-elastischen System von Lastschritt zu Lastschritt Endzustände ermittelt werden, im Gegensatz dazu findet beim viskos-elastischen System ein stetiger Fließvorgang statt. Ein weiterer Vorteil der Integraltransformationen ist die Ermittlung von Grenzwerten im Bildraum für Zeiten t → ∞. • Stochastische Prozesse: Prozesse sind Abläufe in der Zeit von physikalischen, chemischen oder biologischen Größen. Jede Gleichung hat ein experimentelles Gegenbild, über das jeweilige Meßprinzip sollte man sich immer im klaren sein. Bei stochastischen Prozessen sind nur Wahrscheinlichkeits- 9 2 ÜBERBLICK DER VORLESUNG aussagen möglich. Als Beispiel seien Stichprobenmessungen über Windrichtungen, -stärke und Licht, das durch die Wolken tritt erwähnt. Daraus ableitbare Aussagen sind Mittelwertsaussagen über diese Schwankungsprozesse. Synonyme für Schwankungsprozesse sind regellose Prozesse, stochastische Prozesse, Zufallsprozesse bzw. aus dem engl. Sprachschatz: random processes. Hinter dem Wort Zufall verbirgt sich der Sachverhalt, daß keine vollständigen Informationen über die Ursachen der Signale zur Verfügung stehen. Bei linearen Systemen können die stochastischen Anteile überlagert, superponiert werden, zum Beispiel für die Errergerkraft oder für die Systemparameter. Nichtlineare Systeme werden oft durch Diskretisierung in eine Menge linearer Ersatzsysteme überführt. Es erweist sich als sinnvoll vom leichteren zum komplizierteren Fall überzugehen und daher wollen wir uns vorerst mit stochastischen Prozessen bei linearen Systemen näher befassen. Zufallsprozesse treten schon in der Thermodynamik zur qualitativen Beschreibung der Wärme in Gasen, Flüssigkeiten und Festkörpern auf. Die Prozesse in Gasen sind hochgradig nichtlinear, das liegt unter anderem an der Ablenkung und damit verbundenen Streuung bei Stoßprozessen der Atome. Dabei findet je nach Art der Modellierung ein Energie-, Impuls- und evtl. Drehimpulsaustausch statt. Bei diesen Stoßmodellen kommen sich die Atome nur sehr nahe, ohne daß sie sich berühren. Es wechseln sich ständig Prozesse von reiner Trägheitswirkung und kurzen Wechselwirkungsphasen ab. Die Wechselwirkungskräfte sind in der Regel nichtlinear. Im Unterschied zu den Gasen treten bei Flüssigkeiten keine wechselwirkungsfreien Raumgebiete auf. Im Festkörper, zum Beispiel Stahl, existieren Kristallhaufen und für die Atome in den einzelnen Kristallen existieren bei absoluter Temperatur Null Gleichgewichtslagen, die regelmäßig angeordnet sind wie in den Kreuzungspunkten eines Gitters; das sind die sogenannten Gitterplätze. Die Erlangung der absoluten Temperatur Null ist wegen des 3. und 2. Hauptsatzes der Thermodynamik unmöglich. Die Temperatur ist ein Maß für den Schwankungsanteil der Energie. Der Abstand der Atome beim Stahl ist so gering, daß Wellenlängen in der Größenordnung der Abstände kurzen (“harten”) Röntgenstrahlen entsprechen und damit nicht im sichtbaren Licht liegen. Eine Modellierung von Stahl als Kontinuum ist somit gerechtfertigt. Bei der Bewertung stochastischer Prozesse spielt die Fourier-Transformation eine große Rolle. • Behandlung von Singularitäten mit Distributionen: Fast alle Studenten arbeiten mit Distributionen, ohne es zu Wissen. Die wohl bekannteste Distribution ist die Delta-Distribution bzw. Dirac-Distribution. Erinnert sei hier an das Konzept der Einzelkraft in der Mechanik, wie es in der Systemskizze der Abbildung 1 zu sehen ist. Das erste Beispiel in dieser Abbildung hat bei herkömmlicher Behandlung zwei Bereiche e 1 und e 2. Die bereichsweise geltende Biegeliniendifferentialgleichung ist von 4. Ordnung, so daß sich acht Integrationskonstanten ergeben, die aus den vier Randbedingungen sowie den vier Übergangsbedingungen zu bestimmen sind. 10 2 ÜBERBLICK DER VORLESUNG F e 1 F M0 e 2 xM xF x x (a) Einzelkraft xF (b) Einzelmoment Abbildung 1: Konzept der Einzelkraft und des Einzelmomentes Die Idee von Herrn Dirac bestand darin, unstetige Stellen - wie zum Beispiel beim Einleiten einer Einzelkraft, eines Einzelmomentes etc. - genau so wie stetige Stellen zu behandeln (Ursprünglich trat der Begriff der DiracFunktion δ(·) auf, jedoch ist dies keine Funktion im eigentlichen Sinn.). Anwendung der Dirac-Idee auf unser Beispiel ergibt für die Streckenlast, das heißt die Kraftschüttung in Querrichtung q(x): F δ(x − xF ) =: q(x) (1) Mit dieser neu definierten Streckenlast kann der Balken als ein Bereich angesehen werden, für den vier Randbedingungen notwendig sind. Erweitern wir unser Beispiel durch ein zusätzliches Einzelmoment M0 an der Stelle x = xM , so hat man zwei Möglichkeiten der weiteren Verarbeitung. Entweder der Anteil des Einzelmomentes wird von der Streckenlast aufgenommen q(x) := qF + qM = F δ(x − xF ) + M0 δ ′ (x − xM ), (2) wobei Ableitungen der Dirac-Distributionen verwendet werden, die nicht wie bei herkömmlichen Funktionen als Grenzwerte von Differenzenquotienten eingeführt werden können, oder der Anteil des Einzelmomentes wird durch eine Momentenschüttung m(x) wiedergegeben q(x) : = qF = F δ(x − xF ) m(x) : = M0 δ(x − xM ) So wie eben gezeigt Unstetigkeiten in der Statik verarbeitet werden können, kann man dies auch auf dynamische Fragestellungen übertragen. Beim Stoß ergibt sich beispielhaft F (t) = S δ(t − t0 ) R t +ǫ Dabei ist die Größe Sder Kraftstoß bei t = t0 , das heißt S = t00−ǫ F (t) dt. Wie stehen die Integraltransformationen mit den Distributionen in Zusammenhang? 11 3 STOCHASTISCHE PROZESSE Zum Einblick sei die Fourier-Transformation und deren Umkehrtransformation eingeführt. Z ∞ y(t) 7→ ỹ(ω) = y(t) e−ωt dt =: Fω [y(t)] −∞ Z ∞ 1 1 ∗ ỹ(ω) 7→ y(t) = ỹ(ω) eωt dω =: Fω−1 [ỹ(ω)] = F [ỹ(ω)] 2π −∞ 2π t Die Grenzen der Integrale laufen von −∞ bis ∞, es wird bei diesen uneigentlichen Integralen gehofft, daß die Grenzwerte existieren. Ein Zusammenhang zur Distributionentheorie ist zu ersehen, wenn man z.B. folgenden Ansatz in die Umkehrtransformation einsetzt: ỹ(ω) = ⇒ 1 (δ(ω − ω0 ) + δ(ω + ω0 )) 2 1 −ω0 t e + eω0 t = cos ω0 t 2πy(t) = 2 Im Sinne der Distributionentheorie existiert die Fourier-Transformierte der Funktion cos ω0 t. • Mathematische Modelle der Strukturmechanik: Denkbar wäre in diesem Themenbereich die Durchführung des Kraftgrößenverfahrens mit Hilfe der Distributionentheorie. Lineare Differentialgleichungen können gelöst werden, falls die Lösung für eine Einzellast beliebiger Lage bekannt ist. Die Lösung dieser Aufgabe führt auf die Einflußfunktionen, die in den mathematischen Disziplinen mit dem Synonym Greensche Funktionen bezeichnet werden. In diesem Semester wird auf Wunsch der Teilnehmer ein besonderer Schwerpunkt auf den zweiten Themenkomplex, die stochastischen Prozesse, gelegt. 3 Stochastische Prozesse Zur Einführung in dieses Themengebiet wird ein Teil der mathematischen Wahrscheinlichkeitstheorie/Statistik vorgestellt. Eine ausgezeichnete Stichprobe aus der Grundgesamtheit entspricht “Laborbedingungen” und daher ist keine Übertragung auf die Allgemeinheit möglich. Als Beispiel sei das Würfeln einer Zahl oder der Münzwurf erwähnt. Das Werfen einer Münze ist ein elementarer stochastischer Prozeß. Bei einer idealen Münze ist das Eintreten beider Ereignisse - Kopf und Zahl - gleich wahrscheinlich. Dahinter verbirgt sich die Philosophie des Zufalls. Laplace führte den Wahrscheinlichkeitsbegriff folgendermaßen ein Idealwert des Quotienten aus Wahrscheinlichkeit = Zahl der gewünschten Fälle / günstigen Fälle Zahl aller Fälle 12 3 STOCHASTISCHE PROZESSE Dieser Quotient wird relative Häufigkeit genannt. Das Wort “ideal” ist dabei kein mathematischer Begriff. Es kann der Versuch unternommen werden den Idealwert als Grenzwert für eine steigende Anzahl von Realisierungen und zusätzlicher Mittelung zu verstehen. Erinnern wir uns an die Definition eines Grenzwertes einer Folge |an − ag | < ǫ, für n > N (ǫ). Diese Beziehung kann auch für Vektoren erweitert werden, es ist dafür nur notwendig einen Normbegriff einzuführen. Ein etwas anderes Grenzwertkriterium lautet |an − an−1 | < ǫ, für n > N (ǫ). Vom mathematischen Standpunkt aus scheitert der Versuch den Idealwert als Grenzwert zu betrachten - wegen des Zufalls bei jedem Münzwurf. Beim von Laplace eingeführten Wahrscheinlichkeitsbegriff handelt es sich um natürliche Zahlen N im Zähler und Nenner des Quotienten. Die Wahrscheinlichkeit ist etwas abstraktes. Bei der Einführung von Maßen, zum Beispiel für die Messung von Zeitintervallen, kann der Wahrscheinlichkeitsbegriff “kontinuisiert” werden. Das sich beim Ablesen nur diskrete Zeitwerte ergeben, liegt an der Auflösung der Uhren. Für den Idealwert der relativen Häufigkeit erhalten wir somit Wahrscheinlichkeit = Idealwert von Maß der gewünschten Fälle Maß aller Fälle Die Wahrscheinlichkeitsrechnung wird auch bezeichnet als Theorie mit der Unsicherheit fertig zu werden. Wahrscheinlichkeiten können nicht gemessen werden, es sind Ergebnisse von Schätzungen. Wir können mit einem Experiment die Fragestellung untersuchen, ob ein Würfel ein idealer Würfel ist. Das wir auf einen Würfel die Zahlen Eins bis Sechs schreiben, ist unsere Willkür. Ebenso gut können wir jede Seite des Würfels mit einer anderen Farbe versehen. Somit sind Wahrscheinlichkeiten etwas sehr abstraktes, aber wir verwenden diese Größe trotzdem in der Stochastik - in analoger Weise rechnen wir in der Mechanik mit starren Körpern, obwohl diese in der Realität nicht existieren und ein ebenso abstraktes Gebilde darstellen. Es tritt der Begriff des Eintretens eines Ereignisses auf. Ereignisse werden durch große Buchstaben A, B, C . . . gekennzeichnet. Ereignisse können auch Teilmengen von Elementarereignissen umfassen, zum Beispiel die Untersuchung des Würfelns von geraden Zahlen (2, 4, 6). Die Ereignismenge=Grundgesamtheit, Kollektiv bezeichnen wir mitG. Den Ereignissen werden Wahrscheinlichkeitswerte (Probabilitäten) P zugeordnet A 7→ P (A). Die Maßeinheit der Wahrscheinlichkeitswerte ist 1.Wichtige Eigenschaften sind mit dem Namen Kolmogoroff verbunden. Das Nichteintreten irgend eines Ereignisses aus G lautet P (∅) ≡ P ({}) = 0, 13 3 STOCHASTISCHE PROZESSE für disjunkte(=elementfremde) Menge gilt der Additionssatz P (A ∪ B) = P (A) + P (B), falls A ∩ B = ∅ (3) bzw. etwas schärfer, falls für das Maß m(·) m(A ∩ B) = 0 und die Normierung des “sicheren Ereignisses”:= Eintreten aller Ereignisse aus G erfolgt durch die übliche Setzung P (G) ≡ 1. Eine andere oft bei den Thermodynamikern verwendete Normierung setzt die Maximalzahl nicht auf 1, sondern auf die Zahl aller eintretbar möglichen Fälle. Dabei wurden zwei Operationen auf Mengen verwendet • die Vereinigung (“Union” bzw. “Bund”) von Mengen (symbolisch: A∪B): die Ergebnismenge besteht aus Elementen die entweder Elemente in der Menge A und/oder der Menge B vorkommen und • der Durchschnitt (“intersection”) von Mengen (symbolisch: A ∩ B, lies “A schnitt B”): Elemente, die sowohl in der Menge Aals auch in der Menge B vorkommen legen die Ergenismenge fest. Die Vereinigung und der Durchschnitt sind kommutative Operationen. Eine weitere Operation, die wir später noch verwenden werden ist • die Komplement(-menge) der Menge A bezüglich der Grundgesamtheit G (symbolisch: Ā): Die Komplementmenge Ā ist die Differenzmenge zwischen G und A, das heißt Ā ∪ A = G, A ∩ Ā = ∅ ⇔ Ā = G\A. A A A B A ∩ B 6= ∅ B A∩B =∅ B Maß m(A ∩ B) = 0 Abbildung 2: Mögliche Situationen zweier Schnittmengen im Venn-Diagramm In Verbindung mit der Gleichung (3) ist es von besonderem Interesse zwei Mengen A und B in ihre disjunkten Anteile zu zerlegen. Mit Blick auf die 1. Teilabbildung der Venn-Diagramme1 der Abbildung 2 sei die Menge C diejenige Teilmenge von A, deren Elemente nicht zur Menge B gehören C := A\(A ∩ B) 1 John Venn, engl. Logiker (1834-83) 14 (4) 3 STOCHASTISCHE PROZESSE Eine Teilmenge C der Menge A ist dabei dadurch gekennzeichnet, daß alle Elemente der Teilmenge C auch Elemente der Menge von A sind (C ⊆ A). Im Grenzfall ist die Menge A selbst Teilmenge von A. Eine äquivalente Aussage zur Gleichung (4) lautet C ∪ (A ∩ B) = A, C ∩ (A ∩ B) = ∅ ⇒ A∪B =C ∪B Wir nehmen jetzt an, daß es N abzählbare nicht unterteilbare Elementarereignisse {An } gibt. Für diese Elementarereignisse soll An ∩ Am = ∅ für n 6= m gelten. Es wir die Elementarwahrscheinlichkeit pn definiert P (An ) = pn und aus der Vereinigungsmenge aller Elementarereignisse leiten wir G= N [ 7→ An P (G) ≡ 1 = n=1 N X pn ab. n=1 Es sei nochmals erwähnt, daß Wahrscheinlichkeiten bereits bei einmal Würfeln bestehen, diese sind aber nicht gleich den relativen Häufigkeiten H. Die Beziehungen für die algebraischen Wahrscheinlichkeiten sehen aus, als ob man sie von den relativen Häufigkeiten abguckt. Für die relative Häufigkeit eines Ereignisses folgt nämlich H(A) = N (A) N (A1 ) + N (A2 ) + N (A3 ) = (arithmetischer Mittelwert) N (G) N (G) mit A = A1 ∪ A2 ∪ A3 und Am ∩ An = ∅. Dann kann die Häufigkeitsverteilung H(Ai ) gebildet werden H(Ai ) = N (Ai ) , ∀i N (G) Die Häufigkeitsverteilung ist die Angabe der relativen Häufigkeit des Vorkommens disjunkten Teilmengen=Klassen Ak . Ereignisse Am können durch gleiche Bewertung der Elementarereignissen umkategoriesiert werden in die Ereignisse Bm , das heißt G= N [ n=1 An = M [ n2 (m) Bm mit Bm = m=1 [ An . n=n1 (m) Als Beispiel von praktischen Klassifizierungen können die Korngröße von Schüttgütern oder die Staffelung in den Klausurergebnissen erwähnt werden. Dabei werden relative Häufigkeiten über die Maschenweite aufgetragen. Eine andere Möglichkeit ist die Darstellung als Stufenfunktion, das heißt bei jeder Maschenweite wird die relative Häufigkeit zu den bis lang zu dieser Maschenweite erreichten Summen der relativen Häufigkeiten aufgeschlagen. 15 3 STOCHASTISCHE PROZESSE Wir wollen übergehen zu den Begriffen Wahrscheinlichkeitsdichte und verteilung. Die einfachste Wahrscheinlichkeitsdichte ist die gleichverteilte Wahrscheinlichkeitsdichte eines kontinuierlichen Ereignisses, siehe Abbildung 3 1/x0 , 0 < x < x0 p(x) = 0, sonst Die Wahrscheinlichkeitsverteilung ergibt sich daraus zu Z x x P (X ≤ x) = p(x̃)dx̃ = x 0 x̃=0 P (X ≤ x0 ) = 1 (sicheres Ereignis) gleichverteilte Wahrscheinlichkeitsdichte p(x) O x x0 1 gleichverteilte Wahrscheinlichkeitsverteilung P (X ≤ x) 1 O 1 x x0 Abbildung 3: gleichverteilte Wahrscheinlichkeitsdichte und -verteilung eines kontinuierlichen Ereignisses Der nächste Schritt ist die Einführung der Verbundwahrscheinlichkeit, das heißt die Frage nach dem Eintreten von beispielsweise Meßwerten für unabhängig klassifizierte Eingangsgrößen - zum Beispiel die Fragestellung wieviele Studenten sind größer als 1, 70 Meter und sind mindestens im fünften Fachsemester. Ein weiterer wichtiger Begriff, mit dem wir uns auseinandersetzen müssen sind Zufallsvariablen. Ein anschauliches Beispiel für Zufallsvariablen sind Ergebnisse von Messungen. Wie bei Funktionen unterscheiden wir zwischen Variable und Zahlenwert. Konkret für die Zufallsvariable der Länge L des Zeigestocks gilt L = l, 16 3 STOCHASTISCHE PROZESSE Elementarrechteck yk aaaaaaaaa aaaaaaaaa aaaaaaaaa aaaaaaaaa aaaaaaaaa aaaaaaaaa aaaaaaaaa xi Abbildung 4: Schema des kartesischen Produktes dabei ist l der Wert von L und im allgemeinen eine Schwankungsgröße bedingt durch zwei Ursachen: 1. Messung der Zeigestocklänge von 30 Zeigestöcken aus einer Kiste 2. Ableseschwankungen, das heißt mehrfache Messung der Länge ein und desselben Stockes liefert unterschiedliche Ergebnisse. Es soll das zusammengesetzte Experiment betrachtet werden, beispielsweise wie lang ist der Stab und wie schwer! Ob diese Fragestellungen unabhängig sind oder nicht, ist eine gesonderte Betrachtung. Zur Beschreibung zusammengesetzter Experimente wird das kartesische Produkt eingeführt, dessen Idee dem kartesischen Koordinatensystem für reelle Zahlen nachempfunden wurde. Zwei Mengen M = {m} und N = {n} → M × N := {(m, n)}. Das Ergebnis ist hier eine Menge von geordneten Paaren, die entsprechend einem Matrixschema vorstellbar sind, vgl Abbildung 4. Eine nochmalige Anwendung führt auf eine Menge geordneter Tripel und allgemein auf eine Menge geordneter Tupel. Das kartesische Produkt ist nicht kommutativ. Es sei an dieser Stelle darauf hingewiesen, daß nicht jedes geordnete Paar von Zahlen als kartesisches Produkt dargestellt werden kann, denn wenn man als ersten Eingang eine Zahl aus dem Vorrat {1, 2, 3} zieht und als zweiten Eingang aus dem verbleibenden Zahlenvorrat zieht, so wäre die Ereignismenge=Grundgesamtheit G G = {(1, 2), (1, 3), (2, 1), (2, 2), (3, 1), (3, 2)}. 17 3 STOCHASTISCHE PROZESSE Auch bei zusammengesetzten Experimenten werden Wahrscheinlichkeitsdichten / Elementarwahrscheinlichkeiten eingeführt pik = P ({mi , nk }) P (X = xi ) = P (Y = yk ) = mit den Zuordnungen mi ↔ xi , nk ↔ yk pi = 1 k=1 M X M X N X pk = 1 N X i=1 pik =: pi , i=1 pik =: pk , i=1 Ereignisse X(mi ) = xi und Y (nk ) = yk heißen unabhängig, falls pik = pi · pk gilt, bzw. analog P (A ∩ B) = P (A) · P (B) Als nächsten Meilenstein betrachten wir Wahrscheinlichkeiten bedingter Ereignisse, diese sind definiert durch P (A|B) = P (A ∩ B) P (B) Es wird die Frage nach der Wahrscheinlichkeit des Eintretens des Ereignisses A gestellt. Zusätzlich sei bekannt, daß das Ereignis B eingetreten ist. Dadurch wird im Fall abhängiger Ereignisse A und B die bedingte Wahrscheinlichkeit P (A|B) sich von der Wahrscheinlichkeit P (A) ohne irgendeine Zusatzkenntnis des Eintretens eines anderen Ereignisses unterscheiden. Nur für unabhängige Ereignisse fallen beide zusammen und die Zusatzkenntnis liefert keine neue Information, das heißt P (A|B) = P (A). Die Wahrscheinlichkeit der Ereignisse P (A), P (B) usw. wird gebildet, indem man die Wahrscheinlichkeiten der Elementarereignisse addiert. Da P (G) = 1 und A ∩ G = A ist, können wir die Gleichung P (A) = P (A ∩ G) P (G) (5) schreiben. Sie zeigt, daß P (E) das Verhältnis der Wahrscheinlichkeit jenes Teils von E, der in G enthalten ist (das ist die Menge E selbst), zu der Wahrscheinlichkeit für G selbst (die 1 beträgt) ist. Falls wir wissen, daß das Ereignis B eintritt, so ersetzt B den Ereignisraum G als die Menge, deren Elemente allen möglichen Ergebnissen des Experimentes entspricht. Die durch B bedingte Wahrscheinlichkeit für A ist undefiniert, wenn P (B) = 0 ist. Als Umkehrung ergibt sich für die Wahrscheinlichkeit der Schnittmenge P (A ∩ B) = P (A) · P (B|A) = P (B) · P (A|B). Und für die Situation unabhängiger Ereignisse, vgl Gleichung (5), folgt P (A ∩ B) = P (B) · P (A) 18 3.1 Stochastische Zeitfunktion 3 STOCHASTISCHE PROZESSE wie schon zuvor erwähnt. An dieser Stelle sei auf den Unterschied zwischen bedingter Wahrscheinlichkeit P (A|B) und Verbundwahrscheinlichkeit P (A, B) hingewiesen. Bei der bedingten Wahrscheinlichkeit ist der ursprüngliche Ereignisraum i.a. eingeschränkt und die Wahrscheinlichkeitsmasse wird nur durch die Summation über A festgelegt, wohingegen bei der Verbundwahrscheinlichkeit noch der gesamte Ereignisraum zur Verfügung steht. 3.1 Stochastische Zeitfunktion 19