Technische Universität Berlin

Werbung
Technische Universität Berlin
Skript zur Vorlesung Mathematische Methoden
der Mechanik und Elektrodynamik (SoSe 2006)
von Prof. Dr.-Ing. Gerd Brunk
Institut für Mechanik
Fachgebiet Mechanik und Elektrodynamik
Technische Universität Berlin, Germany
Straße des 17. Juni 135
10623 Berlin
16. Mai 2006
Erstellung dieser druckreifen Form durch:
1
U. Herbrich
M. Heß und
P. Löwis
INHALTSVERZEICHNIS
INHALTSVERZEICHNIS
Inhaltsverzeichnis
1 Symbolverzeichnis
1.1 Allgemeine Symbole . . . . . . . . . . .
1.2 Dynamik . . . . . . . . . . . . . . . . .
1.3 Vektorrechnung . . . . . . . . . . . . . .
1.4 Bezugssysteme, Koordinaten . . . . . .
1.5 Mechanik . . . . . . . . . . . . . . . . .
1.6 Kontinuumsmechanik . . . . . . . . . .
1.7 Thermodynamik . . . . . . . . . . . . .
1.8 Elektrodynamik . . . . . . . . . . . . . .
1.9 Wahrscheinlichkeitsrechnung/Stochastik
2 Überblick der Vorlesung
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
5
5
6
6
7
7
8
9
3 Stochastische Prozesse
12
3.1 Stochastische Zeitfunktion . . . . . . . . . . . . . . . . . . . . . . 19
2
ABBILDUNGSVERZEICHNIS
TABELLENVERZEICHNIS
Abbildungsverzeichnis
1
2
3
4
Konzept der Einzelkraft und des Einzelmomentes . . . . . . . . .
Mögliche Situationen zweier Schnittmengen im Venn-Diagramm
gleichverteilte Wahrscheinlichkeitsdichte und -verteilung eines kontinuierlichen Ereignisses . . . . . . . . . . . . . . . . . . . . . . .
Schema des kartesischen Produktes . . . . . . . . . . . . . . . . .
Tabellenverzeichnis
3
11
14
16
17
1 SYMBOLVERZEICHNIS
1
Symbolverzeichnis
1.1
Allgemeine Symbole
C
En
N
R
Vn
e
V
A
C
S
U
V
∀a
∃
∈
|a|
trA
{a}
[a]
<a>
ab
a=b
a≡b
a := B
a 7→ b
a⇔b
˙
(·)
R{·}
I{·}
δ(t)
h(t)
L[·]
1.2
ˆ
(·)
K
g(t)
G(Ω)
Ω
Y
Z
Menge der komplexen Zahlen
n-dimensionaler Euklidischer Vektorraum
Menge der natürlichen Zahlen
Menge der reellen Zahlen
n-dimensionaler Vektorraum
dualer Vektorraum
Flächengebiet
Kontur
Raum der gerichteten Strecken
Umgebung
Raumgebiet (Verschiebungsvektoren, shifters)
für alle a
es existiert
in, Element aus
Betrag von a
Spur (trace) des Tensors a
Maßzahl der Größe a
Maßeinheit der Größe a
physikalische Dimension der Größe a
dyadisches Produkt der Vektoren a und b
a ist gleich b
a ist äquivalent gleich b
a ist definiert als b
a wird abgebildet in b
a gilt genau dann, wenn auch b gilt
˙ =d(·)/dt
Zeitableitung von (·), (·)
Realteil von (·)
Imaginärteil von (·)
Dirac-Distribution
Sprungfunktion
Differentialoperator
Dynamik
komplexe Amplitude von (·)
Steifigkeitsoperator
Greensche Funktion, Relaxationsfunktion, Nachwirkungskern
komplexe Übertragungsfunktion
Erregerfunktion
Impedanz nach der Ladungs-Koordinaten-Analogie
Impedanz nach der Fluß-Koordinaten-Analogie
4
1.3
1.3
Vektorrechnung
Vektorrechnung
a · s̃
a·s
A×B
a×b
A⊗B
a∧b
Ti
f
(·)
â
(·)T
(·)∗
(·)†
δij
1.4
1 SYMBOLVERZEICHNIS
Skalarprodukt zwischen a und s̃
inneres Produkt zwischen a und s
kartesisches Produkt (zwischen Mengen)
vektorielles äußeres Produkt oder Kreuzprodukt (zwischen Vektoren)
tensorielles äußeres Produkt (zwischen Vektorräumen)
tensorielles äußeres Produkt
charakteristische Invarianten des Tensors T
duale Größe zu (·)
transformierte Größe zu a
transponierte Größe
komplex konjugierte Größe
komplex konjugiert und transponiert (= Hermitesch)
Kronecker-Symbol
Bezugssysteme, Koordinaten
bλ = bλ
C
{ei }
iλ
KR
Q
q
Q
P
S, Ŝ, Se
SI
vIP
vIQ
vI Q̂
vP
vQ
vQ̂
v̂P
v̂Q
v̂Q̂
mitbewegte kartesische Basis
verallgemeinerter Coriolis-Tensor
kartesische Basis
kartesische Basis
objektive Restkraft
Beobachterpunkt, fest in S
Koordinaten
orthogonaler Tensor, Drehtensor
materieller Punkt
Bezugssysteme
Inertialsystem
Absolutgeschwindigkeit des materiellen Punktes P
Absolutgeschwindigkeit des in S festen Beobachterpunktes Q
Absolutgeschwindigkeit des in Ŝ festen Beobachterpunktes Q̂
Relativgeschwindigkeit von P gegenüber S
Relativgeschwindigkeit von Q gegenüber S, da Q aber in S fest ist, verschwindet sie
Relativgeschwindigkeit von Q̂ gegenüber S
Relativgeschwindigkeit von P gegenüber Ŝ
Relativgeschwindigkeit von Q gegenüber Ŝ
Relativgeschwindigkeit von Q̂ gegenüber Ŝ, da Q̂ aber in Ŝ fest ist, verschwindet sie
5
1.5
1.5
Mechanik
Mechanik
a, a
c
C
d
E
T
F, F
g, g
I, J
k
ℓ
m
M, M
µ
µ0
N
ω, ω
P
Pe
t
σ
v, v
W
W∗
x
ξ
1.6
B
C
E
F
H
R
x
ξ
U
V
1 SYMBOLVERZEICHNIS
Beschleunigung
Federsteifigkeit (auch k)
Schwerpunkt
Vektor der Ursprungsverschiebung
kinetische Energie
kinetische Ergänzungsenergie
Kraft
Erdbeschleunigung
Impuls
Federsteifigkeit (auch c)
Länge
Masse
Moment
Gleitreibungszahl
Haftreibungszahl
Normalkraft
Winkelgeschwindigkeit
Leistung
äußere Leistung
Zeit
Normalspannung
Geschwindigkeit
Formänderungsenergie
Formänderungsergänzungsenergie
Ort(svektor)
Elementvektor
Kontinuumsmechanik
linker Cauchy-Greenscher Verzerrungstensor
rechter Cauchy-Greenscher Verzerrungstensor
Greenscher Verzerrungstensor
lokaler Plazierungswechsel, transponierter Bewegungsgradient
logarithmischer Verzerrungstensor
Drehtensor, Versor
Ort(svektor) in der Momentanlage / -konfiguration
Ort(svektor) in der Bezugslage / -plazierung
rechter Strecktensor, U2 = FT · F
linker Strecktensor, V2 = F · FT
6
1.7
1.7
α
c
cs
Φ
k
k̄
n
Pq
T
Θ
Θi
ϑ
S
Σ
U
1.8
Thermodynamik
1 SYMBOLVERZEICHNIS
Thermodynamik
Temperaturbeiwert, Dehnungskoeffizient
isotherme Steifigkeit
isentrope (adiabate) Steifigkeit
freie Energie
differentieller Wärmeübertragungskoeffizient
finiter Wärmeübertragungskoeffizient
Nachgiebigkeit
Wärmezufuhr
absolute Temperatur
Kontakttemperatur eines Systems
innere Temperatur eines Systems
Temperaturdifferenz an der Systemgrenze
Entropie
Entropieproduktion
innere Energie
Elektrodynamik
A
b, b
C
e, e
Φ
γ
h, h
I[A]
i
j, j
κ
L
m, m
M, M
µ
µ0
Ψ
Q
R
u
vm
Vm
wm
Wm
We
Arbeit
magnetische Flußdichte
Kapazität
elektrische Feldstärke
magnetischer Fluß
Leitfähigkeit
magnetische Feldstärke
Strom durch die Fläche A
Strom
Stromdichte
magnetische Suszeptibilität
Induktivität
Magnetisierung
magnetisches Moment
Permeabilität
Permeabilität des Vakuums
Verkettungsfluß
Ladung(smenge)
Widerstand
Spannung
magnetische Ergänzungsenergiedichte
magnetische Ergänzungsenergie
magnetische Energiedichte
magnetische Energie
elektrische Energie
7
1.9
1.9
Wahrscheinlichkeitsrechnung/Stochastik
1 SYMBOLVERZEICHNIS
Wahrscheinlichkeitsrechnung/Stochastik
∅
(·)
∩
∪
\
A, B, C
{Ai }
G
H(A)
P
leere Menge, Leermenge
Komplement von (·)
Durchschnitt von Mengen
Vereinigung von Mengen
Differenz von Mengen
Ereignisse
Elementarereignis
Grundgesamtheit
relative Häufigkeit von A
Wahrscheinlichkeit,Probabilität
8
2
2
ÜBERBLICK DER VORLESUNG
Überblick der Vorlesung
In dieser Veranstaltung wird ein Übergewicht auf die mathematischen Verfahren
gelegt, wie sie zum Beispiel in der Mechanik und Elektrodynamik Anwendung
finden. Ebenso gut können die Lösungsverfahren auch auf andere Gebiete der
Physik, Chemie etc. übertragen werden. Nicht in erster Linie soll der physikalische Ursprung von auftretenden Gleichungen gesehen werden, wir wollen die
Physik jedoch nicht völlig außen vor lassen.
Die Vorlesung gliedert sich in vier Bereiche, die an manchen Schnittstellen
eng miteinander verbunden und somit auch nicht ganz unabhängig voneinander betrachtet werden können. Zwei dieser Themen werden schwerpunktmäßig
beleuchtet:
• Anwendung von Integraltransformationen in quasi-statischen und
dynamischen Problemen: Es sollen die Fourier- als auch die Laplace-Transformation vorgestellt werden. Im Vordergrund werden lineare Differentialgleichungen, Integralgleichungen bzw. Integrodifferentialgleichungen untersucht. Mit Hilfe der zuvor genannten Integraltransformationen ist eine Lösbarkeit von autonomen Systemen gewährleistet. Ein
nicht-autonomes System ergibt sich bereits, falls die Koeffizienten in der
Differentialgleichung zeitabhängig werden. In der Regelungstechnik spricht
man bei in dieser Hinsicht zeitabhängigen Systemen von “adaptiven Systemen”, weil man versucht, durch zeitvariable Anpassung der Regelungsparameter trotzdem eine stabile Regelung - “Sollwert=Istwert” - zu erreichen. Falls schnelle Schwingungen der Koeffizienten linearer Systeme
um eine Mittellage stattfinden, so ist die Rede von rheolinearen Systemen, welche ebenfalls zu der Klasse der nicht-autonomen Systeme gehören.
Die Laplace-Transformation wird häufig bei Anfangswertproblemen, wie
zum Beispiel Einschalt- und Hochlaufvorgängen verwendet. Diese Vorgänge bezeichnet man als Schaltvorgänge, Übergangsvorgänge, oder aus dem
Lateinischen stammend, Transienten. Bei nichtlinearen und/oder nichtautonomen Systemen können Fourier-Reihen verwendet werden, jedoch
finden die Fourier-Transformationen bei diesen Systemen nur bedingt
Anwendung. Methoden von linear-elastischen Systemen können - besonders bei Vorhandensein von materieller und kinematischer Symmetrie auch auf linear-visko-elastische Systeme übertragen werden. Für den Fall
der Quasistatik können beim linear-elastischen System von Lastschritt zu
Lastschritt Endzustände ermittelt werden, im Gegensatz dazu findet beim
viskos-elastischen System ein stetiger Fließvorgang statt. Ein weiterer Vorteil der Integraltransformationen ist die Ermittlung von Grenzwerten im
Bildraum für Zeiten t → ∞.
• Stochastische Prozesse: Prozesse sind Abläufe in der Zeit von physikalischen, chemischen oder biologischen Größen. Jede Gleichung hat ein experimentelles Gegenbild, über das jeweilige Meßprinzip sollte man sich immer
im klaren sein. Bei stochastischen Prozessen sind nur Wahrscheinlichkeits-
9
2
ÜBERBLICK DER VORLESUNG
aussagen möglich. Als Beispiel seien Stichprobenmessungen über Windrichtungen, -stärke und Licht, das durch die Wolken tritt erwähnt. Daraus
ableitbare Aussagen sind Mittelwertsaussagen über diese Schwankungsprozesse. Synonyme für Schwankungsprozesse sind regellose Prozesse, stochastische Prozesse, Zufallsprozesse bzw. aus dem engl. Sprachschatz: random processes. Hinter dem Wort Zufall verbirgt sich der Sachverhalt, daß
keine vollständigen Informationen über die Ursachen der Signale zur Verfügung stehen. Bei linearen Systemen können die stochastischen Anteile
überlagert, superponiert werden, zum Beispiel für die Errergerkraft oder
für die Systemparameter. Nichtlineare Systeme werden oft durch Diskretisierung in eine Menge linearer Ersatzsysteme überführt. Es erweist sich als
sinnvoll vom leichteren zum komplizierteren Fall überzugehen und daher
wollen wir uns vorerst mit stochastischen Prozessen bei linearen Systemen
näher befassen. Zufallsprozesse treten schon in der Thermodynamik zur
qualitativen Beschreibung der Wärme in Gasen, Flüssigkeiten und Festkörpern auf. Die Prozesse in Gasen sind hochgradig nichtlinear, das liegt
unter anderem an der Ablenkung und damit verbundenen Streuung bei
Stoßprozessen der Atome. Dabei findet je nach Art der Modellierung ein
Energie-, Impuls- und evtl. Drehimpulsaustausch statt. Bei diesen Stoßmodellen kommen sich die Atome nur sehr nahe, ohne daß sie sich berühren. Es wechseln sich ständig Prozesse von reiner Trägheitswirkung und
kurzen Wechselwirkungsphasen ab. Die Wechselwirkungskräfte sind in der
Regel nichtlinear. Im Unterschied zu den Gasen treten bei Flüssigkeiten
keine wechselwirkungsfreien Raumgebiete auf. Im Festkörper, zum Beispiel Stahl, existieren Kristallhaufen und für die Atome in den einzelnen
Kristallen existieren bei absoluter Temperatur Null Gleichgewichtslagen,
die regelmäßig angeordnet sind wie in den Kreuzungspunkten eines Gitters; das sind die sogenannten Gitterplätze. Die Erlangung der absoluten
Temperatur Null ist wegen des 3. und 2. Hauptsatzes der Thermodynamik unmöglich. Die Temperatur ist ein Maß für den Schwankungsanteil
der Energie. Der Abstand der Atome beim Stahl ist so gering, daß Wellenlängen in der Größenordnung der Abstände kurzen (“harten”) Röntgenstrahlen entsprechen und damit nicht im sichtbaren Licht liegen. Eine
Modellierung von Stahl als Kontinuum ist somit gerechtfertigt. Bei der Bewertung stochastischer Prozesse spielt die Fourier-Transformation eine
große Rolle.
• Behandlung von Singularitäten mit Distributionen: Fast alle Studenten arbeiten mit Distributionen, ohne es zu Wissen. Die wohl bekannteste Distribution ist die Delta-Distribution bzw. Dirac-Distribution. Erinnert sei hier an das Konzept der Einzelkraft in der Mechanik, wie es in
der Systemskizze der Abbildung 1 zu sehen ist. Das erste Beispiel in dieser
Abbildung hat bei herkömmlicher Behandlung zwei Bereiche e
1 und e
2. Die
bereichsweise geltende Biegeliniendifferentialgleichung ist von 4. Ordnung,
so daß sich acht Integrationskonstanten ergeben, die aus den vier Randbedingungen sowie den vier Übergangsbedingungen zu bestimmen sind.
10
2
ÜBERBLICK DER VORLESUNG
F
e
1
F
M0
e
2
xM
xF
x
x
(a) Einzelkraft
xF
(b) Einzelmoment
Abbildung 1: Konzept der Einzelkraft und des Einzelmomentes
Die Idee von Herrn Dirac bestand darin, unstetige Stellen - wie zum Beispiel beim Einleiten einer Einzelkraft, eines Einzelmomentes etc. - genau so
wie stetige Stellen zu behandeln (Ursprünglich trat der Begriff der DiracFunktion δ(·) auf, jedoch ist dies keine Funktion im eigentlichen Sinn.).
Anwendung der Dirac-Idee auf unser Beispiel ergibt für die Streckenlast,
das heißt die Kraftschüttung in Querrichtung q(x):
F δ(x − xF ) =: q(x)
(1)
Mit dieser neu definierten Streckenlast kann der Balken als ein Bereich
angesehen werden, für den vier Randbedingungen notwendig sind. Erweitern wir unser Beispiel durch ein zusätzliches Einzelmoment M0 an der
Stelle x = xM , so hat man zwei Möglichkeiten der weiteren Verarbeitung.
Entweder der Anteil des Einzelmomentes wird von der Streckenlast aufgenommen
q(x) := qF + qM = F δ(x − xF ) + M0 δ ′ (x − xM ),
(2)
wobei Ableitungen der Dirac-Distributionen verwendet werden, die nicht
wie bei herkömmlichen Funktionen als Grenzwerte von Differenzenquotienten eingeführt werden können, oder der Anteil des Einzelmomentes wird
durch eine Momentenschüttung m(x) wiedergegeben
q(x) : = qF = F δ(x − xF )
m(x) : = M0 δ(x − xM )
So wie eben gezeigt Unstetigkeiten in der Statik verarbeitet werden können, kann man dies auch auf dynamische Fragestellungen übertragen. Beim
Stoß ergibt sich beispielhaft
F (t) = S δ(t − t0 )
R t +ǫ
Dabei ist die Größe Sder Kraftstoß bei t = t0 , das heißt S = t00−ǫ F (t) dt.
Wie stehen die Integraltransformationen mit den Distributionen in Zusammenhang?
11
3 STOCHASTISCHE PROZESSE
Zum Einblick sei die Fourier-Transformation und deren Umkehrtransformation eingeführt.
Z ∞
y(t) 7→ ỹ(ω) =
y(t) e−ωt dt =: Fω [y(t)]
−∞
Z ∞
1
1 ∗
ỹ(ω) 7→ y(t) =
ỹ(ω) eωt dω =: Fω−1 [ỹ(ω)] =
F [ỹ(ω)]
2π −∞
2π t
Die Grenzen der Integrale laufen von −∞ bis ∞, es wird bei diesen uneigentlichen Integralen gehofft, daß die Grenzwerte existieren. Ein Zusammenhang zur Distributionentheorie ist zu ersehen, wenn man z.B. folgenden Ansatz in die Umkehrtransformation einsetzt:
ỹ(ω)
=
⇒
1
(δ(ω − ω0 ) + δ(ω + ω0 ))
2
1 −ω0 t
e
+ eω0 t = cos ω0 t
2πy(t) =
2
Im Sinne der Distributionentheorie existiert die Fourier-Transformierte der
Funktion cos ω0 t.
• Mathematische Modelle der Strukturmechanik: Denkbar wäre in
diesem Themenbereich die Durchführung des Kraftgrößenverfahrens mit
Hilfe der Distributionentheorie. Lineare Differentialgleichungen können gelöst werden, falls die Lösung für eine Einzellast beliebiger Lage bekannt
ist. Die Lösung dieser Aufgabe führt auf die Einflußfunktionen, die in
den mathematischen Disziplinen mit dem Synonym Greensche Funktionen bezeichnet werden.
In diesem Semester wird auf Wunsch der Teilnehmer ein besonderer Schwerpunkt auf den zweiten Themenkomplex, die stochastischen Prozesse, gelegt.
3
Stochastische Prozesse
Zur Einführung in dieses Themengebiet wird ein Teil der mathematischen Wahrscheinlichkeitstheorie/Statistik vorgestellt. Eine ausgezeichnete Stichprobe aus
der Grundgesamtheit entspricht “Laborbedingungen” und daher ist keine Übertragung auf die Allgemeinheit möglich. Als Beispiel sei das Würfeln einer Zahl
oder der Münzwurf erwähnt. Das Werfen einer Münze ist ein elementarer stochastischer Prozeß. Bei einer idealen Münze ist das Eintreten beider Ereignisse
- Kopf und Zahl - gleich wahrscheinlich. Dahinter verbirgt sich die Philosophie
des Zufalls. Laplace führte den Wahrscheinlichkeitsbegriff folgendermaßen
ein


Idealwert des Quotienten aus
Wahrscheinlichkeit =
Zahl der gewünschten Fälle / günstigen Fälle

Zahl aller Fälle
12
3 STOCHASTISCHE PROZESSE
Dieser Quotient wird relative Häufigkeit genannt. Das Wort “ideal” ist dabei kein mathematischer Begriff. Es kann der Versuch unternommen werden
den Idealwert als Grenzwert für eine steigende Anzahl von Realisierungen und
zusätzlicher Mittelung zu verstehen. Erinnern wir uns an die Definition eines
Grenzwertes einer Folge
|an − ag | < ǫ, für n > N (ǫ).
Diese Beziehung kann auch für Vektoren erweitert werden, es ist dafür nur notwendig einen Normbegriff einzuführen. Ein etwas anderes Grenzwertkriterium
lautet
|an − an−1 | < ǫ, für n > N (ǫ).
Vom mathematischen Standpunkt aus scheitert der Versuch den Idealwert als
Grenzwert zu betrachten - wegen des Zufalls bei jedem Münzwurf. Beim von
Laplace eingeführten Wahrscheinlichkeitsbegriff handelt es sich um natürliche
Zahlen N im Zähler und Nenner des Quotienten. Die Wahrscheinlichkeit ist
etwas abstraktes. Bei der Einführung von Maßen, zum Beispiel für die Messung
von Zeitintervallen, kann der Wahrscheinlichkeitsbegriff “kontinuisiert” werden.
Das sich beim Ablesen nur diskrete Zeitwerte ergeben, liegt an der Auflösung
der Uhren. Für den Idealwert der relativen Häufigkeit erhalten wir somit
Wahrscheinlichkeit = Idealwert von
Maß der gewünschten Fälle
Maß aller Fälle
Die Wahrscheinlichkeitsrechnung wird auch bezeichnet als Theorie mit der Unsicherheit fertig zu werden. Wahrscheinlichkeiten können nicht gemessen werden,
es sind Ergebnisse von Schätzungen. Wir können mit einem Experiment die Fragestellung untersuchen, ob ein Würfel ein idealer Würfel ist. Das wir auf einen
Würfel die Zahlen Eins bis Sechs schreiben, ist unsere Willkür. Ebenso gut können wir jede Seite des Würfels mit einer anderen Farbe versehen. Somit sind
Wahrscheinlichkeiten etwas sehr abstraktes, aber wir verwenden diese Größe
trotzdem in der Stochastik - in analoger Weise rechnen wir in der Mechanik mit
starren Körpern, obwohl diese in der Realität nicht existieren und ein ebenso
abstraktes Gebilde darstellen. Es tritt der Begriff des Eintretens eines Ereignisses auf. Ereignisse werden durch große Buchstaben A, B, C . . . gekennzeichnet.
Ereignisse können auch Teilmengen von Elementarereignissen umfassen, zum
Beispiel die Untersuchung des Würfelns von geraden Zahlen (2, 4, 6). Die Ereignismenge=Grundgesamtheit, Kollektiv bezeichnen wir mitG. Den Ereignissen
werden Wahrscheinlichkeitswerte (Probabilitäten) P zugeordnet
A 7→ P (A).
Die Maßeinheit der Wahrscheinlichkeitswerte ist 1.Wichtige Eigenschaften sind
mit dem Namen Kolmogoroff verbunden. Das Nichteintreten irgend eines
Ereignisses aus G lautet
P (∅) ≡ P ({}) = 0,
13
3 STOCHASTISCHE PROZESSE
für disjunkte(=elementfremde) Menge gilt der Additionssatz
P (A ∪ B) = P (A) + P (B), falls A ∩ B = ∅
(3)
bzw. etwas schärfer, falls für das Maß m(·)
m(A ∩ B) = 0
und die Normierung des “sicheren Ereignisses”:= Eintreten aller Ereignisse aus
G erfolgt durch die übliche Setzung
P (G) ≡ 1.
Eine andere oft bei den Thermodynamikern verwendete Normierung setzt die
Maximalzahl nicht auf 1, sondern auf die Zahl aller eintretbar möglichen Fälle.
Dabei wurden zwei Operationen auf Mengen verwendet
• die Vereinigung (“Union” bzw. “Bund”) von Mengen (symbolisch: A∪B):
die Ergebnismenge besteht aus Elementen die entweder Elemente in der
Menge A und/oder der Menge B vorkommen und
• der Durchschnitt (“intersection”) von Mengen (symbolisch: A ∩ B, lies
“A schnitt B”): Elemente, die sowohl in der Menge Aals auch in der Menge
B vorkommen legen die Ergenismenge fest.
Die Vereinigung und der Durchschnitt sind kommutative Operationen. Eine weitere Operation, die wir später noch verwenden werden ist
• die Komplement(-menge) der Menge A bezüglich der Grundgesamtheit G (symbolisch: Ā): Die Komplementmenge Ā ist die Differenzmenge
zwischen G und A, das heißt Ā ∪ A = G, A ∩ Ā = ∅ ⇔ Ā = G\A.
A
A
A
B
A ∩ B 6= ∅
B
A∩B =∅
B
Maß m(A ∩ B) = 0
Abbildung 2: Mögliche Situationen zweier Schnittmengen im Venn-Diagramm
In Verbindung mit der Gleichung (3) ist es von besonderem Interesse zwei
Mengen A und B in ihre disjunkten Anteile zu zerlegen. Mit Blick auf die 1.
Teilabbildung der Venn-Diagramme1 der Abbildung 2 sei die Menge C diejenige
Teilmenge von A, deren Elemente nicht zur Menge B gehören
C := A\(A ∩ B)
1 John
Venn, engl. Logiker (1834-83)
14
(4)
3 STOCHASTISCHE PROZESSE
Eine Teilmenge C der Menge A ist dabei dadurch gekennzeichnet, daß alle
Elemente der Teilmenge C auch Elemente der Menge von A sind (C ⊆ A). Im
Grenzfall ist die Menge A selbst Teilmenge von A. Eine äquivalente Aussage zur
Gleichung (4) lautet
C ∪ (A ∩ B)
= A, C ∩ (A ∩ B) = ∅
⇒ A∪B =C ∪B
Wir nehmen jetzt an, daß es N abzählbare nicht unterteilbare Elementarereignisse {An } gibt. Für diese Elementarereignisse soll An ∩ Am = ∅ für n 6= m
gelten. Es wir die Elementarwahrscheinlichkeit pn definiert
P (An ) = pn
und aus der Vereinigungsmenge aller Elementarereignisse leiten wir
G=
N
[
7→
An
P (G) ≡ 1 =
n=1
N
X
pn
ab.
n=1
Es sei nochmals erwähnt, daß Wahrscheinlichkeiten bereits bei einmal Würfeln
bestehen, diese sind aber nicht gleich den relativen Häufigkeiten H. Die Beziehungen für die algebraischen Wahrscheinlichkeiten sehen aus, als ob man sie von
den relativen Häufigkeiten abguckt. Für die relative Häufigkeit eines Ereignisses
folgt nämlich
H(A)
=
N (A)
N (A1 ) + N (A2 ) + N (A3 )
=
(arithmetischer Mittelwert)
N (G)
N (G)
mit A = A1 ∪ A2 ∪ A3 und Am ∩ An = ∅.
Dann kann die Häufigkeitsverteilung H(Ai ) gebildet werden
H(Ai ) =
N (Ai )
, ∀i
N (G)
Die Häufigkeitsverteilung ist die Angabe der relativen Häufigkeit des Vorkommens disjunkten Teilmengen=Klassen Ak . Ereignisse Am können durch gleiche
Bewertung der Elementarereignissen umkategoriesiert werden in die Ereignisse
Bm , das heißt
G=
N
[
n=1
An =
M
[
n2 (m)
Bm
mit Bm =
m=1
[
An .
n=n1 (m)
Als Beispiel von praktischen Klassifizierungen können die Korngröße von Schüttgütern oder die Staffelung in den Klausurergebnissen erwähnt werden. Dabei
werden relative Häufigkeiten über die Maschenweite aufgetragen. Eine andere Möglichkeit ist die Darstellung als Stufenfunktion, das heißt bei jeder Maschenweite wird die relative Häufigkeit zu den bis lang zu dieser Maschenweite
erreichten Summen der relativen Häufigkeiten aufgeschlagen.
15
3 STOCHASTISCHE PROZESSE
Wir wollen übergehen zu den Begriffen Wahrscheinlichkeitsdichte und verteilung. Die einfachste Wahrscheinlichkeitsdichte ist die gleichverteilte Wahrscheinlichkeitsdichte eines kontinuierlichen Ereignisses, siehe Abbildung 3
1/x0 , 0 < x < x0
p(x) =
0,
sonst
Die Wahrscheinlichkeitsverteilung ergibt sich daraus zu
Z x
x
P (X ≤ x) =
p(x̃)dx̃ =
x
0
x̃=0
P (X ≤ x0 ) = 1
(sicheres Ereignis)
gleichverteilte Wahrscheinlichkeitsdichte
p(x)
O
x
x0
1
gleichverteilte Wahrscheinlichkeitsverteilung
P (X ≤ x)
1
O
1
x
x0
Abbildung 3: gleichverteilte Wahrscheinlichkeitsdichte und -verteilung eines kontinuierlichen Ereignisses
Der nächste Schritt ist die Einführung der Verbundwahrscheinlichkeit,
das heißt die Frage nach dem Eintreten von beispielsweise Meßwerten für unabhängig klassifizierte Eingangsgrößen - zum Beispiel die Fragestellung wieviele
Studenten sind größer als 1, 70 Meter und sind mindestens im fünften Fachsemester. Ein weiterer wichtiger Begriff, mit dem wir uns auseinandersetzen müssen
sind Zufallsvariablen. Ein anschauliches Beispiel für Zufallsvariablen sind Ergebnisse von Messungen. Wie bei Funktionen unterscheiden wir zwischen Variable und Zahlenwert. Konkret für die Zufallsvariable der Länge L des Zeigestocks
gilt
L = l,
16
3 STOCHASTISCHE PROZESSE
Elementarrechteck
yk
aaaaaaaaa
aaaaaaaaa
aaaaaaaaa
aaaaaaaaa
aaaaaaaaa
aaaaaaaaa
aaaaaaaaa
xi
Abbildung 4: Schema des kartesischen Produktes
dabei ist l der Wert von L und im allgemeinen eine Schwankungsgröße bedingt
durch zwei Ursachen:
1. Messung der Zeigestocklänge von 30 Zeigestöcken aus einer Kiste
2. Ableseschwankungen, das heißt mehrfache Messung der Länge ein und
desselben Stockes liefert unterschiedliche Ergebnisse.
Es soll das zusammengesetzte Experiment betrachtet werden, beispielsweise wie lang ist der Stab und wie schwer! Ob diese Fragestellungen unabhängig
sind oder nicht, ist eine gesonderte Betrachtung. Zur Beschreibung zusammengesetzter Experimente wird das kartesische Produkt eingeführt, dessen Idee
dem kartesischen Koordinatensystem für reelle Zahlen nachempfunden wurde.
Zwei Mengen M = {m} und N = {n} → M × N := {(m, n)}. Das
Ergebnis ist hier eine Menge von geordneten Paaren, die entsprechend einem
Matrixschema vorstellbar sind, vgl Abbildung 4. Eine nochmalige Anwendung
führt auf eine Menge geordneter Tripel und allgemein auf eine Menge geordneter
Tupel. Das kartesische Produkt ist nicht kommutativ. Es sei an dieser Stelle
darauf hingewiesen, daß nicht jedes geordnete Paar von Zahlen als kartesisches
Produkt dargestellt werden kann, denn wenn man als ersten Eingang eine Zahl
aus dem Vorrat {1, 2, 3} zieht und als zweiten Eingang aus dem verbleibenden
Zahlenvorrat zieht, so wäre die Ereignismenge=Grundgesamtheit G
G = {(1, 2), (1, 3), (2, 1), (2, 2), (3, 1), (3, 2)}.
17
3 STOCHASTISCHE PROZESSE
Auch bei zusammengesetzten Experimenten werden Wahrscheinlichkeitsdichten / Elementarwahrscheinlichkeiten eingeführt
pik
= P ({mi , nk })
P (X = xi ) =
P (Y = yk ) =
mit den Zuordnungen mi ↔ xi , nk ↔ yk
pi = 1
k=1
M
X
M
X
N
X
pk = 1
N
X
i=1
pik =: pi ,
i=1
pik =: pk ,
i=1
Ereignisse X(mi ) = xi und Y (nk ) = yk heißen unabhängig, falls
pik = pi · pk gilt, bzw. analog
P (A ∩ B) = P (A) · P (B)
Als nächsten Meilenstein betrachten wir Wahrscheinlichkeiten bedingter Ereignisse, diese sind definiert durch
P (A|B) =
P (A ∩ B)
P (B)
Es wird die Frage nach der Wahrscheinlichkeit des Eintretens des Ereignisses
A gestellt. Zusätzlich sei bekannt, daß das Ereignis B eingetreten ist. Dadurch
wird im Fall abhängiger Ereignisse A und B die bedingte Wahrscheinlichkeit
P (A|B) sich von der Wahrscheinlichkeit P (A) ohne irgendeine Zusatzkenntnis
des Eintretens eines anderen Ereignisses unterscheiden. Nur für unabhängige
Ereignisse fallen beide zusammen und die Zusatzkenntnis liefert keine neue Information, das heißt
P (A|B) = P (A).
Die Wahrscheinlichkeit der Ereignisse P (A), P (B) usw. wird gebildet, indem
man die Wahrscheinlichkeiten der Elementarereignisse addiert. Da P (G) = 1
und A ∩ G = A ist, können wir die Gleichung
P (A) =
P (A ∩ G)
P (G)
(5)
schreiben. Sie zeigt, daß P (E) das Verhältnis der Wahrscheinlichkeit jenes Teils
von E, der in G enthalten ist (das ist die Menge E selbst), zu der Wahrscheinlichkeit für G selbst (die 1 beträgt) ist. Falls wir wissen, daß das Ereignis B
eintritt, so ersetzt B den Ereignisraum G als die Menge, deren Elemente allen möglichen Ergebnissen des Experimentes entspricht. Die durch B bedingte
Wahrscheinlichkeit für A ist undefiniert, wenn P (B) = 0 ist.
Als Umkehrung ergibt sich für die Wahrscheinlichkeit der Schnittmenge
P (A ∩ B) = P (A) · P (B|A) = P (B) · P (A|B).
Und für die Situation unabhängiger Ereignisse, vgl Gleichung (5), folgt
P (A ∩ B) = P (B) · P (A)
18
3.1
Stochastische Zeitfunktion
3 STOCHASTISCHE PROZESSE
wie schon zuvor erwähnt. An dieser Stelle sei auf den Unterschied zwischen
bedingter Wahrscheinlichkeit P (A|B) und Verbundwahrscheinlichkeit P (A, B)
hingewiesen. Bei der bedingten Wahrscheinlichkeit ist der ursprüngliche Ereignisraum i.a. eingeschränkt und die Wahrscheinlichkeitsmasse wird nur durch
die Summation über A festgelegt, wohingegen bei der Verbundwahrscheinlichkeit noch der gesamte Ereignisraum zur Verfügung steht.
3.1
Stochastische Zeitfunktion
19
Herunterladen