Kapitel 7 Tensoren und Differentialformen 7.1 Einführung In der Physik umgibt die Tensoren ein Hauch von Mystik. Sie werden oft verwendet, aber viele wissen nicht wirklich was sich dahinter verbirgt. Meist wird nicht mehr als die Definition angegeben. Wir wollen versuchen, die Tensoren anschaulich zu vermitteln und wählten dazu eine moderne Vorgehensweise, welche stark von klassischen Darstellungen abweicht. Unsere Betrachtungen haben wir mit den Vektoren begonnen. Vektoren sind mathematische Objekte, die in einem Raum existieren. Dies kann der kartesische oder ein gekrümmter Raum, wie zum Beispiel die eine durch Massen gekrümmte Raum-Zeit, sein. Mit Hilfe von Vektoren können Punkte und Richtungen in diesem Raum beschrieben werden. Stellen wir uns im kartesischen Raum den Ortsvektor ~x vor, der vom Ursprung eines Koordinatensystems zum Punkt P zeigt. Es ist nun möglich, den Vektor ~x in einem Kugelkoordinatensystem zu finden, der auch auf den selben Punkt P zeigt. Es handelt sich jeweils um denselben Vektor, doch die Komponenten der Vektoren sehen je nach verwendetem Koordinatensystem anders aus. Man sagt daher, dass Vektoren Koordinaten unabhängig sind, jedoch bestimmte Transformationsgesetzen von einem Koordinatensystem in ein anderes gehorchen müssen. Dass Koordinaten transformiert werden können und wie dies geschieht, haben wir in Abschnitt 6.4.3 gesehen. Dazu wurden lineare Abbildungen eingeführt, die in Form von Matrizen leicht beschrieben werden konnten. Eine Matrix kann also eine Verknüpfung bzw. Abbildung zwischen verschiedensten Koordinatensystemen herstellen. In der Physik gilt das Postulat dass die ganzen physikalischen Gesetze überall gelten müssen. Das heißt, es sollte eigentlich auch egal sein, welches Koordinatensystem gewählt wird, um die Gesetze zu beschreiben. Die Gesetze, und somit die Vektoren bzw. Tensoren, die sie beschreiben, sollen invariant vom Bezugssystem sein. So kann das Gravitations-Potential sowohl in karte- 231 KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 232 sischen Koordinaten mit GM φ(x, y, z) = − p 2 x + y2 + z2 als auch in sphärischen Koordinaten mit φ(r) = − GM r beschrieben werden. Doch schauen die Gleichungen sofort anders aus. Teilweise werden sie in anderen Koordinatensystemen extrem ”hässlich”. Ein Problem ergibt sich zum Beispiel in der Relativitätstheorie, wo sich die Koordinatensysteme die ganze Zeit ändern. Da ist die Raum-Zeit abhängig von Massen (bzw. allgemeiner Energien) und dem Inertialsystem. Es wäre also schön, wenn es eine Möglichkeit gäbe, Beziehungen zwischen physikalischen Größen unabhängig von ihren Koordinatensystemen darzustellen. Genau dazu werden Tensoren verwendet, und deswegen sind sie in der Physik auch so beliebt. Sie vermitteln multilineare Abbildungen von Größen, zwischen verschiedenen Bezugssystemen, wobei die Metrik, die eine fundamentale Eigenschaft des Raumes ist, lokal verschieden sein kann. Wir werden den Abstraktionsprozess im Detail betrachten und hoffen, damit die Tensoren verständlich erklären zu können. Bevor wir mit einer kleinen Motivation beginnen können, müssen wir noch die schon öfters erwähnte Einsteinsche Summenkonvention einführen. 7.1.1 Einsteinsche Summenkonvention In der Physik und Mathematik stößt man immer wieder auf Ausdrücke der Art yi = ai1 x1 + ai2 x2 + ai3 x3 + . . . = n X aij xj j=1 Um nicht jedes Mal die Summe ausschreiben oder das Summationszeichen hinschreiben zu müssen, wird die Einsteinsche Summenkonvention eingeführt. Definition 7.1.1. Einsteinsche Summenkonvention. Anstelle von yi = n X aij xj j=1 wird abkürzend yi = aij xj geschrieben, wobei immer über gleich auftretende Indizes summiert wird. In allen Betrachtungen zu Tensoren kommen sowohl Indizes im Subskript, als auch im Superskript vor. Dabei müssen wir unsere Definition erweitern und wann immer zwischen Indizes im Sub- und Superskript unterschieden wird gilt: KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 233 Definition 7.1.2. Die Summation findet nur über gleich auftretende Indizes statt, die sich nicht auf gleicher Indexstufe befinden. Es ist dann also n X y= Aα ωα = Aα ωα j=1 In dieser Konvention ist also Aα B α nicht zu summieren. Die Summenkonvention mag anfänglich ungewohnt und mühsam erscheinen, doch sollte man sich nicht davor fürchten. Durchhaltevermögen ist dabei gefragt, denn sie erleichtert das Leben ungemein. Nochmals, in allen Betrachtungen zu Tensoren, verwenden wir die zweite Form der Einsteinschen Summenkonvention. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 7.2 7.2.1 234 Definition von Tensoren Motivation anhand des Metrischen Tensors Wir wollen unsere Betrachtung mit einem kleinen Vorausgriff starten. Sei ein Koordinatensystem O mit einer dazugehörigen Basis {êα } gegeben. Die Stellung der Indizes mag im Moment egal sein. Dann gilt ~ = Aα êα , B ~ = B β êβ A Wir betrachten nun das Skalarprodukt zwischen den beiden Vektoren und werden dies genauer analysieren. ~·B ~ = Aα êα · B β êβ = Aα B β êα · êβ = Aα B β ηαβ A (7.2.1) Der Ausdruck Aα B β ist die Multiplikation zwischen den einzelnen Komponenten des Vektors, somit sind dies nur Zahlen. Das Skalarprodukt ist eine Invariante, also unabhängig vom Bezugssystem. 7.2.1 im R3 hingeschrieben ergibt ~·B ~ = A1 B 1 + A2 B 2 + A3 B 3 A Die Zahlen ηαβ sind die Komponenten des sogenannten metrischen Tensors. Der metrische Tensor ist jene Schlüsselgrösse, welche die Geometrie des Raumes festlegt und somit den Zahlen Aα und B β eine Bedeutung zuweist. Wäre es nun nicht schön, wenn wir einen Weg finden würden, wo wir nur mit den Zahlen Aα und B β rechnen müssen und nicht immer den Balast der Geometrie mitberücksichtigen müssen? Dieser Frage wollen wir nun nachgehen. In diesem kleinen Beispiel sind nun alle Bestandteile vorgekommen, mit welchen wir uns in den nächsten Kapiteln beschäftigen werden. Auf der einen ~ Seite haben wir gesehen, dass die Komponenten Aα und B β der Vektoren A ~ und B nur Zahlen sind. Sie enthalten keinerlei Information über die verwendete Geometrie. Diese Information steckt in den Einheitsvektoren êα und êβ oder abstrakter im metrischen Tensor ηαβ , der als das äußere Produkt der Einheitsvektoren aufgefasst werden kann. Betrachten wir den metrischen Tensor auf dem niedrigsten Level, so kann man ηαβ als eine Größe auffassen, die auf zwei Vektoren angewendet einen Skalar generiert. Diese Zahl ergibt sich aus der Summation über folgenden Ausdruck: Aα B β ηαβ Dies ist nicht mit dem Skalarprodukt zu verwechseln, welches aus zwei Vektoren einen Skalar macht, d.h. eine Abbildung R3 × R3 → R bewirkt 7.2.2 Definition eines Tensors vom Typ 0 N Stürzen wir uns gleich ins kalte Wasser und fangen mit der Definition eines Tensors an: KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 235 0 Definition 7.2.1. Ein Tensor vom Typ ist eine Funktion von N N Vektoren, die eine Abbildung in die reellen Zahlen erzeugt und linear in allen N Argumenten ist. Dass Tensoren linear sind ist essentiell. Linearität in N Argumenten bedeutet für den Fall N = 2 (s.u): ~ ·B ~ =α A ~·B ~ i αA Linearität auf dem 1. Argument ~+B ~ ·C ~ =A ~·C ~ +B ~ ·C ~ Linearität auf dem 1. Argument ii A ~·B ~ ~ · βB ~ =β A Linearität auf dem 2. Argument iii A ~· B ~ +C ~ =A ~·B ~ +A ~·C ~ Linearität auf dem 2. Argument iv A .. .. . . Ein Wort noch zur Notation. Bei Vektoren schreiben wir von nun an die ~ sind dann also in der InIndizes oben! Die Komponenten eines Vektors A α dexnotation A . Wir werden später noch sehen, warum wir dieser Konvention folgen. Tensoren verfolgenim Grunde ein einfaches Konzept. Möge g ein metri 0 sein. Dann gilt scher Tensor vom Typ 2 ~ B ~ =A ~·B ~ g A, (7.2.2) Der Tensor g ( , ) ist nun nichts anderes als eine ”Maschine” mit zwei ”Schlitzen”, in die man jeweils einen Vektor stecken kann und die dann als Ergebnis eine reelle Zahl liefert. Im obigen Fall berechnet die Maschine das Skalarprodukt. g ( , ) kann also zwei Argumente aufnehmen und ist in jedem linear, so dass für das erste Argument gilt: ~ + β B, ~ C ~ = αg A, ~ C ~ + βg B, ~ C ~ g αA Das analoge gilt auch für das zweite Argument. Wir können also die Definition eines Tensors nun auch etwas plakativer formulieren: 0 Definition 7.2.2. Ein Tensor vom Typ ist eine Regel (MaschiN ne), die auf Vektoren angewendet dieselbe reelle Zahl unabhängig vom Bezugssystem ergibt, in dem die Komponenten der Vektoren berechnet werden. Wir haben dies bereits für das Skalarprodukt, d.h. für ηαβ gezeigt. Nochmals, Tensoren sind Funktionen von Vektoren selbst und nicht von deren Komponenten, sprich sie ”fressen” Vektoren! KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 236 Anzumerken sei dabei, dass eine gewöhnliche Skalarfunktion φ (t, x, y, z) eine reellwertige Funktion ist, die als Argument keine Vektoren hat. Sie wird 0 daher als Tensor vom Typ klassifiziert. 0 Einschub: Der Begriff Funktion In der reellen Analysis kennt man y = f (x) wobei x, y ∈ R Zahlen sind. Die Funktion ist nun nicht f (x), da f (x) eine Zahl ist, sondern f ( ), die eine reelle Zahl x in eine andere reelle Zahl y abbildet. x nennt man das Argument von f . Normalerweise machen wir diese Unterscheidung nicht und nennen f (x) eine Funktion, weil wir für x alle Zahlen im Definitionsbereich durchlaufen lassen. Doch um das Konzept des Tensors besser verstehen zu können, müssen wir diese Unterscheidung durchführen. In wollen wir daher explizit und exakt sein: g ( , ) ist der Tensor-Analysis 0 ~ B ~ ist eine reelle Zahl. ein -Tensor und g A, 2 7.2.3 Komponenten eines Tensors 1 -Tensor bezeichnen) hat Analog zu einem Vektor (den wir übrigens als 0 auch ein Tensor Komponenten. Sie sind wie folgt definiert: 0 -Tensors in einem Definition 7.2.3. Die Komponenten eines N Bezugssystem O sind die Werte der Funktion, wenn die zugehörigen Argumente die Basisvektoren {êα } im System O sind. Daraus folgt, dass die Komponenten also Zahlen sind, die vom Bezugssystem abhängen, da wir hier explizit die Basisvektoren {êα } von O benötigen. Wir wollen dies wieder anhand des metrischen Tensors erläutern. Die Komponenten des metrischen Tensors bekommen wir also, wenn wir die Basisvektoren eines Systems O in die ”Maschine” stecken. g (êα , êβ ) = êα · êβ = ηαβ (7.2.3) Die Matrix (ηαβ ) kann als eine Anordnung der Zahlen ηαβ verstanden werden, die die Komponenten von g ( , ) im Bezugssystem O mit der Basis {êα } darstellen. Betrachten wir die Einheitsvektoren des kartesischen Koordinatensystems êx = (1, 0, 0), êy = (0, 1, 0) und êz = (0, 0, 1) und bilden nach der Vorschrift 7.2.3 die Matrix (ηαβ ), so erhalten wir: 1 0 0 (ηαβ ) = 0 1 0 (7.2.4) 0 0 1 An dieser Stelle machen wir auf eine kleine Inkonsistenz bei der Indexschreibweise aufmerksam. Während z.B. Aα die verschiedenen Komponenten ~ bezeichnen, sind unter êα die verschiedenen Einheitsvektoren des Vektors A KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 237 ê1 , ê2 , ê3 , ... zu verstehen, die ihrerseit wieder Komponenten besitzen. Diese Notation hat keinen tieferen Gund, sondern ist einfach praktisch. 7.3 Die (0, 1)-Tensoren: 1-Formen Wir wollen nun das ganze systematisch angehen und betrachten die einfach 0 ste Art der Tensoren, die -Tensoren oder auch als 1-Formen bekannt. 1 Wie immer, zuerst mal eine Definition: 0 Definition 7.3.1. Einen Tensor des Typs nennt man einen Ko1 vektor oder einen kovarianten Vektor. Oder mit Bezug auf differenzierbare Mannigfaltigkeiten und Differentialformen eine 1-Form. Wir wollen 1-Formen mit einer ”Tilde” kennzeichnen, d.h. p̃. Im Gegensatz dazu ist p~ ein normaler (kontravarianter) Vektor. 1-Formen sind genauso wie Vektoren linear. So ist die Summer zweier 1Formen wieder eine 1-Form (α, β ∈ R) s̃ = p̃ + q̃ (7.3.1) r̃ = α (p̃ + q̃) = αp̃ + αq̃ (7.3.2) (α + β) p̃ = αp̃ + β p̃ (7.3.3) desgleichen gilt auch beziehungsweise Durch die Gültigkeit dieser Regeln befolgt die Menge aller 1-Formen auch automatisch alle Axiome eines linearen Vektorraumes. Dadurch sind auch die entsprechenden Synonyme wie z.B. kovariante Vektoren gerechtfertigt. Diesen speziellen Vektorraum der 1-Formen nennt man auch den Dualraum. Später dazu mehr. 7.3.1 Komponenten der 1-Formen Die Komponenten einer 1-Form p̃ bezeichnen wir mit pα . Diese bekommen wir, indem wir der 1-Form einen Einheitsvektor zum Fraße vorwerfen, also eine Kontraktion zwischen einer 1-Form und einem Einheitsvektor durchführen. pα = p̃ (êα ) (7.3.4) Es muss beachtet werden, dass der Index unten steht. Dies bezeichnet eine 1-Form. Steht der Index hingegen oben, so meinen wir die kontravariante Komponente eines üblichen Vektors. Diese sind in der Regel verschieden und nur im euklidischen Raum gleich, weshalb meist zwischen 1-Formen und Vektoren unterschieden wird. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 7.3.2 238 Kontraktion 0 Wir haben gesagt, -Tensoren sind Funktionen, die auf N Vektoren anN gewendet immer eine reelle Zahl erzeugen. Dieses ”einen Vektor in die Maschine namens Tensor stecken” nennt man Kontraktion (oder in der deutschen Literatur auch oft Verjüngung) und wird mit p̃ ( ) angeschrieben. Es er~ ∈ R. ~ als Argument also eine reelle Zahl, d.h. p̃ A gibt p̃ ( ) mit einem Vektor A ”Frisst” eine 1-Form also einen Vektor, so kommt eine Zahl raus. Eine Kontraktion kann immer nur zwischen einer 1-Form und einem Vektor, bzw. zwischen einem Ko- und Kontravarianten Index eines Tensors, stattfinden. Die Umkehrung gilt ebenfalls. Frisst ein Vektor eine 1-Form, so ergibt sich ebenfalls eine reelle Zahl. Auch die Kontraktion ist wieder linear, also gilt ~ ~ ~ ~ s̃ A = (p̃ + q̃) A = p̃ A + q̃ A ~ = αp̃(A) ~ + αq̃(A) ~ ~ = α (p̃ + q̃) A r̃ A (7.3.5) Weiters gilt ~ = αp̃ A ~ p̃ αA (7.3.6) ~ genau? Wir schreiben (unter VerwenWas bedeutet denn nun dieses p̃ A dung von 7.3.6 und 7.3.4) ~ = p̃ (Aα êα ) = Aα p̃ (êα ) = Aα pα ∈ R p̃ A (7.3.7) Wenn wir die Einsteinsche Summenkonvention ausschreiben, sehen wir die Bedeutung von 7.3.7 besser. ~ = Aα pα = A1 p1 + A2 p2 + A3 p3 + . . . p̃ A (7.3.8) Im Gegensatz zum Skalarprodukt haben hier alle Terme ein ”+” Zeichen. Beim Skalarprodukt ist dies nicht immer der Fall, je nach gewählter Metrik können die Vorzeichen wechseln. Dies ist z.B. in der Relativitätstheorie bei den Vie~·B ~ = rervektoren der Fall. Dort ist das Skalarprodukt zweier Vierervektoren A 0 0 1 1 2 2 3 3 −A B + A B + A B + A B . Der Vergleich mit dem Skalarprodukt hat gezeigt, dass die Kontraktion eine fundamentalere Operation ist, als das Skalarprodukt, weil sie zwischen jedem Vektor und jeder 1-Form stattfinden kann. Das Skalarprodukt produziert nur mittels einer Metrik, also einem metrischen Tensor, eine reelle Zahl. Die Kontraktion hingegen funktioniert ohne Bezugnahme auf eine Metrik, ist also deswegen viel allgemeiner. Dies zeigt uns auch, dass zwei kontravariante Vektoren keinen Skalar er0 zeugen können. Dazu benötigt man die Hilfe eines -Tensors. Im obigen 2 Beispiel mit dem Skalarprodukt der beiden Vierervektoren waren wir nicht exakt genug. Denn wie gesagt, wir hätten dazu explizit einen metrischen Tensor verwenden müssen. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 7.3.3 239 Transformationsverhalten der Komponenten von 1-Formen Wir wollen jetzt untersuchen, wie sich die Komponenten der 1-Formen unter Transfomationen verhalten. Wie in 7.3.1 erwähnt, hilft uns die Kontraktion beim Auffinden ihrer Komponenten. Bei den Komponenten eines Vektors ist uns das Transformationsverhalten ja schon grob bekannt (siehe 6.4). n o Die Komponenten der 1-Form p̃ in einer (transformierten) Basis êβ sind durch (7.3.9) pβ = p̃ êβ = p̃ Λβ α êα ⇔ pβ = Λβ α p̃ (êα ) = Λβ α pα gegeben, wobei Λβ α eine beliebige Transformation darstellen mag. Vergleiche dazu die uns schon bekannte Form der Basis-Transformation êβ = Λβ α êα (7.3.10) Wir konnten also motivieren, dass folgende fundamentale Regel gilt: Die Komponenten von 1-Formen transformieren sich exakt wie die BasisVektoren und entgegengesetzt zu den Komponenten von Vektoren. Dieses ”entgegengesetzt” garantiert die Invarianz bezüglich des Bezugssy~ und jede beliebige stems des Ausdruckes pα Aα für jeden beliebigen Vektor A 1-Form p̃. Die Verjüngung ist also unabhängig vom Koordinatensystem (man benötigt keine Metrik)! Dies wollen wir nun explizit beweisen: Aα p α = Λβ α Aβ (Λα µ pµ ) = Λβ α Λα µ Aβ pµ = Λα µ Λβ α Aβ pµ | {z } δβ µ = δβ µ Aβ pµ = Aβ p β (7.3.11) Dabei haben wir von der Orthogonalitäts-Bedingung analog zu 6.4.5 Gebrauch gemacht. Der Ausdruck in 7.3.11 ist invariant, d.h. unabhängig vom Bezugssystem. In Kapitel 7.3 haben wir gesagt, dass die 1-Formen einen Dualraum bilden. Genau diese inversen Transformationen geben dem Ausdruck ”dual” seinen Namen. Und genau weil sich eine 1-Form p̃ wie die Basisvektoren {êα } transformieren, werden sie kovariante Vektoren oder Ko-Vektoren genannt. Da sich die Komponenten (und nur die Komponenten) eines Vektors entgegengesetzt zu den Basisvektoren transformieren, nennt man sie kontravariant. Wer nun komplett verwirrt ist sollte beachten, dass die Bezeichnungsweise ”Transformation” unglücklich gewählt ist, da sie zwei unterschiedliche Konzepte miteinander vermischt: • die Transformation einer Basis drückt neue Vektoren durch alte Vektoren aus KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 240 • die Transformation von Komponenten drückt dasselbe Objekt in einer neuen Basis aus Über diese Unterscheidung muss man etwas länger und in Ruhe nachdenken. Sollte der Unterschied aber mal klar sein, dann ist das obige relativ trivial. 7.3.4 Basis-1-Formen (duale Basis) Da die 1-Formen im Prinzip sowas wie Vektoren sind (aber eben gerade auch wieder nicht wegen ihres ”entgegengesetzten” Transformationsverhalten), ist es möglich, auch eine Basis aus 1-Formen zu basteln. Wir haben dies schon im vorherigen Kapitel angekratzt. Nur wollen wir das expliziter fassen und sagen, die Menge aller 1-Formen stellt einen Vektorraum dar, mit denen aus n 1Formen n-dimensionale Räume erzeugt werden können. Sei dies der Rn oder der Robertson-Walker-Raum in der Kosmologie, man kann sie mit 1-Formen alle haben. Diese Basis nennt man die duale Basis. Analog zu Vektoren sind 1-Formen linear unabhängig, wenn es keine triviale Linearkombination gibt. Das heisst, dass die Linearkombination dann und nur dann Null ist, wenn alle Zahlen λ = µ = . . . = ν = 0 sind, damit λp̃ + µq̃ + . . . + ν r̃ = 0 (7.3.12) wird. Wir bezeichnen die dual Basis mit {ω̃ α }, α = 0, 1, 2, 3, . . . analog zur ”normalen” Basis {êα }. Dabei beachte man wie schon so oft die Stellung der Indizes. Eine 1-Form lässt sich also in der dualen Basis wie folgt anschreiben p̃ = pα ω̃ α (7.3.13) wobei hier die ω̃ α nicht die Komponenten einer einzelnen Basis-1-Form darstellen, sondern die jeweils ganzen 1-Formen der Basis, die zusammen das Erzeugendensystem bilden. Nun stellen wir uns die Frage, was passiert, wenn wir einen kontravari~ mit einem Basisvektor der dualen Basis kontrahieren. Diese anten Vektor A Frage in umgekehrter Richtung haben wir uns schon im vorhergehenden Kapitel gestellt. Diese spezielle Kontraktion liefert uns wie schon in 7.3.4 gesagt die Komponenten einer 1-Form. Somit setzen wir das Problem wie folgt an ~ (ω̃ α ) = Aα A Nachdem auch für die Kontraktion das Kommutativgesetz und 7.3.6 gilt, schreiben wir ~ = ω̃ α Aβ êβ = Aβ ω̃ α (êβ ) = Aβ δβ α = Aα ω̃ α A (7.3.14) Wir haben das Resultat sicher schon erahnt, die Lösung sind die Komponenten des Vektors. Ganz unverfroren haben wir in 7.3.14 die Relation ω̃ α (êβ ) = δβ α (7.3.15) KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 241 verwendet. Diese wollen wir nun zeigen. Es ist ja ~ = p̃ (Aα êα ) = Aα p̃ (êα ) = Aα pα p̃ A Mittels 7.3.13 können wir aber auch schreiben ~ = pα ω̃ α Aβ êβ ~ = pα ω̃ α A p̃ A = pα Aβ ω̃ α (êβ ) = pα Aα Also kann nur aus dem Vergleich der beiden Rechenwege ω̃ α (êβ ) = δβ α sein. Ebenso muss ~ (ω̃ α ) = Aβ êβ (ω̃ α ) A gelten. Dies ist schnell gezeigt ~ (p̃) = Aβ êβ (pα ω̃ α ) = Aβ pα êβ (ω̃ α ) ≡ Aβ pα δβ α = Aα pα A Nun können wir mit Hilfe von ω̃ α (êβ ) = δβ α (7.3.16) die euklidische Basis der 1-Formen aufschreiben ω̃ 0 = (1, 0, 0) ω̃ 1 = (0, 1, 0) ω̃ 2 = (0, 0, 1) 1-Formen werden immer als Zeilenvektoren angeschrieben, damit man sie von den kontravarianten Vektoren unterscheiden kann. Betrachten wir einen dem euklidischen verschiedenen Raum, so muss immer die Bedingung ω̃ α (êβ ) = δβ α erfüllt sein. Die Kontraktion der Basisvektoren und Basis-1-Formen muss immer δβ α ergeben. Wie transformiert sich nun {ω̃ α } unter einem Basiswechsel? Wir können uns ja schon denken wie die Transformation stattfinden wird. Nämlich über ω̃ α = Λβ α ω̃ β (7.3.17) Wir wollen unsere Vermutung nun kontrollieren. Wir haben schon gezeigt, dass Aα pα invariant ist. Dies machen wir uns jetzt zunutze. ⇒ Aα pα = Λβ α Aβ p̃ (êα ) = Λβ α Aβ pµ ω̃ µ (êα ) Nachdem Λβ α nur eine Zahl ist, können wir diese in die Kontraktion reinziehen = Aβ pµ ω̃ µ Λβ α êα = Aβ pµ ω̃ µ (êβ ) = Aβ pν Λµ ν ω̃ µ (êβ ) = Aβ pν ω̃ ν (êβ ) = Aβ pν δβ ν = Aβ pβ Somit ist also die Transformation in die eine Richtung ω̃ ν = Λµ ν ω̃ µ . Auf die inverse Transformation kommt man analog in Kurzform: Λν β ω̃ ν = Λν β Λµ ν ω̃ µ = δµ β ω̃ µ = ω̃ β Also bestätigt sich unsere Vermutung von 7.3.17. (7.3.18) KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 7.3.5 242 Zusammenfassung der Unterschiede zwischen 1-Formen und Vektoren • Vektoren und 1-Formen sind dual zueinander. Sie sind somit Objekte aus dualen Räumen. • Dualräume sind sehr wichtig und existieren auch in anderen Bereichen der Mathematik bzw. der mathematischen Physik Ein Beispiel. Spalten- und Zeilenvektoren sind dual, da das Produkt a1 a2 (a1 , a2 , . . . , an ) · . = a21 + a22 + . . . + a2n . . an eine reelle Zahl ist. Zeilenvektoren sind somit 1-Formen. Die Operation, ein Element eines Dualraumes von einem Raum zu finden, nennt man die Adjunktion, das Element die Adjungierte. Sie ist eindeutig und umkehrbar. 7.3.6 Darstellung von 1-Formen (Geometrisch) Anschaulich gesprochen waren Vektoren für uns bis jetzt immer Pfeile. Sie haben einen Ursprung und zeigen in eine Richtung. Daran wird sich auch nicht viel ändern, denn die kontravarianten Vektoren bleiben immer noch gleich. Doch existiert auch ein geometrisches Bild der kovarianten Vektoren, also der 1-Formen? Was wir sicher gleich sagen können ist, dass eine 1-Form kein Pfeil sein kann, denn eine 1-Form muss einen Vektor in eine reelle Zahl abbilden. Und das geht mit einem Pfeil recht schlecht (ohne Zuhilfenahme des metrischen Tensors). Ein Bild einer 1-Form muss also gewährleisten, dass ein Vektor immer in eine Zahl abgebildet wird und dies eben unabhängig von einer Metrik! Definition 7.3.2. Eine 1-Form wird durch eine Folge von parallelen (Hyper-) Flächen dargestellt. Der ”Betrag” ist dann durch den Abstand der Flächen gegeben. Je grösser der Abstand zwischen den Flächen, desto kleiner ist der ”Betrag” und umgekeht. Nun wird auch relativ klar, wie eine 1-Form einen Vektor immer in eine Zahl abbildet. Setzt man einen Vektor in eine solche Folge von Flächen ein, durchstösst der Vektor eine bestimmte Anzahl von Flächen. Die Zahl der durchstossenen Flächen ergibt dann die reelle Zahl, was genau der Kontraktion entspricht. Die 1-Form definiert keine Richtung, da sie eben kein Vektor ist. Stattdessen definiert sie eine Art und Weise den Raum ”in Scheiben zu schneiden” oder generell nur wie man ihn ”aufschneidet”. Das ist der wesentliche geometrische Unterschied zwischen einem Vektor und einer 1-Form. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 243 Abbildung 7.3.1: Illustration von kontravarianten Vektoren und 1-Formen 7.3.7 Der Gradient als 1-Form Wir wollen nun zeigen, dass der Gradient nichts anderes als eine 1-Form ist. Dass dies plausibel ist, möchten wir kurz mit den neu gewonnenen Erkenntnissen erörtern. Eine 1-Form ist nichts anderes, als Flächen, die an Punkten so angelegt werden, dass sie der Geometrie des Raumes folgen. Eine gute und eindeutige Möglichkeit dies zu tun ist, sie immer als Tangentialebenen eines bestimmten Punktes P zu definieren. Somit sind 1-Formen nichts anderes, als die Hypertangentialflächen eines Raumes. Damit kann ebenfalls gezeigt werden, dass der Gradient eine 1-Form ist. Dies wollen wir nun zeigen. Wir betrachten ein Skalarfeld φ(~x) = φ(x, y, z), welches an jedem Punkt ~x definiert sei. Dieses Skalarfeld sei zur Veranschaulichung ein Potentialfeld. Von Punkt zu Punkt kann das Potential φ einen anderen Wert annehmen. Wenn wir alle Punkte mit gleichem φ verbinden, erhalten wir sogenannte Äquipotentialflächen. Wir wollen nun entlang eines Weges s(τ ) durch dieses Skalarfeld gehen, d.h. der Weg wird mit dem Parameter τ parametrisiert. Es ist somit x = x(τ ), y = y(τ ) und z = z(τ ). Betrachten wir nun die Geschwindigkeit, die wir entlang dieses Weges erfahren werden. dx dy dz ~ U= , , = (U x , U y , U z ) (7.3.19) dτ dτ dτ Da nun φ(τ ) = φ (x(τ ), y(τ ), z(τ )) ist die Änderung des Potentialfeldes entlang unseres Weges s und mittels 7.3.19 (Richtungsableitung) dφ dτ = = ∂φ dx ∂φ dy ∂φ dz + + ∂x dτ ∂y dτ ∂z dτ ∂φ x ∂φ y ∂φ z U + U + U ∂x ∂y ∂z (7.3.20) Wenn wir nun diesen Ausdruck etwas genauer betrachten stellen wir fest, dass auf der linken Seite von 7.3.20 eine Zahl dφ dτ steht. Auf der rechten Seite steht KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 244 ~ = (U x , U y , U z ), der mit einem Objekt verknüpft ist, welches die ein Vektor U Komponenten ∂φ ∂φ ∂φ ∂φ ∂φ ∂φ ≡ , , (7.3.21) , , ∂x ∂y ∂z ∂x1 ∂x2 ∂x3 ∂φ aufweisst. Allgemein also ∂x α ≡ φ,α . Aufgrund der Eigenschaft, dass 1-Formen verknüpft mit einem Vektor eine reelle Zahl erzeugen, muss die Grösse 7.3.21 eine 1-Form sein (zumal sie mit ~ linear verknüpft ist). U Definition 7.3.3. Unter dem Gradient versteht man eine 1-Form der Gestalt ∂φ ∂φ ∂φ ˜ (7.3.22) dφ = , ,..., n ∂x1 ∂x2 ∂x Diese wird auch äussere Ableitung von φ genannt. Die Grösse dφ dτ ist wie gesagt ein Skalar und gibt die zeitliche Änderung von φ ~ immer tangential auf einer Kurve s(τ ) an, auf der der Geschwindigkeitvektor U dazu ist. Wir können also unser Bild einer 1-Form vervollständigen. Betrachten wir ein Skalarfeld, welches wir anhand von Höhenlinien (Äquipotentialflächen) aufzeichnen (siehe Bild 7.3.2). Höhenlinien repräsentieren Orte gleicher Höhe, wie z.B. auf einer Wanderkarte. Abbildung 7.3.2: Darstellung eines Skalarfeldes mittels Höhenlinien. In der Region A liegen die Linien dichter zusammen, als in der Region B. In A ist die Änderung des Skalarfeldes deswegen steiler, als in B. Wir halten fest, dass senkrecht zu einer Höhenlinie sich das Feld am stärksten ändert und parallel zur Linie das Feld konstant bleibt. ˜ eine 1-Form und am grössten in Sei h die Höhe am Ort P , dann ist dh Gebieten wie A, wo die Höhenlinien eng beieinander liegen. Wenn wir nun wissen wollen, wie gross der Höhenunterschied zwischen zwei Punkten P und Q ist, so betrachten wir einen Vektor ∆~x = P~Q und zählen die Anzahl der durchstossenen Höhenlinien. Im Falle von Punkt 1 wären das 4, bei Punkt 2 lediglich nur 3.5 und bei Punkt 3 also 0.5. Mathematisch gesehen ˜ mit dem Vektor ist dieses ”Zählen” gerade die Kontraktion des Gradienten dh KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 245 ∂h i ˜ ∆~x, also ∆h = dh(∆~ x) = ∂x i ∆x . Der Gradient beschreibt eine Tangentialfläche, welche an jedem Punkt des Skalarfeldes φ eine andere Ausrichtung besitzt. Dessen kann man sich leicht vergewissern, indem der 2-dimensionale Fall der Tangentialfläche (die Tangentiallinie) in Bild 7.3.2 entlang den Höhenlinien verfolgt wird. Wir haben in Kapitel 7.3.4 gesagt, die 1-Formen bilden den Dualraum. Nachdem wir nun gezeigt haben, dass die 1-Formen Tangentialflächen an den Raum sind, können wir den Dualraum auch Tangential-Raum nennen. Es ist nun klar, dass der Gradient kein Vektor sein kann, sondern eine 1Form sein muss. 7.3.7.1 Transformationseigenschaft eines Gradienten Um nun definitv sagen zu können, dass ein Gradient wirklich eine 1-Form ist (in der Mathematik kann man sich nie einer Behauptung sicher sein, solange man sie nicht allgemein bewiesen hat), untersuchen wir dessen Transformationseigenschaft. Diese müsste gleich jener einer 1-Form sein. Wir müssen also zeigen, dass ˜ ˜ dφ = Λα β dφ (7.3.23) α β ist. Dazu zeigen wir lediglich, wie sich die partiellen Ableitungen in 7.3.22 transformieren. ∂φ ∂φ ∂xβ ∂xβ ∂φ ∂xβ ˜ ˜ = dφ = = = dφ (7.3.24) ∂xα ∂xα ∂xβ ∂xα ∂xβ ∂xα α β Und da xβ = Λα β xα , gilt α ∂ Λ α β xα ∂xβ β ∂x = = Λ = Λα β α ∂xα ∂xα ∂xα (da Λα β nur Zahlen sind). Somit ist ∂xβ ˜ β ˜ ˜ dφ = dφ = Λ dφ α ∂xα α β β Q.E.D. Vergleichen wir dies mit der Transformationseigenschaft eines Vektors Aα = Λβ α Aβ ; ∆xα = Λβ α ∆xβ (7.3.25) sehen wir, dass dies beim Gradienten genau invers dazu erfolgt. Der Gradient ist somit die archetypische 1-Form. 7.3.8 Ableitungen bei Tensoren Da wir bei Ableitungen leicht mit den Indizes in Verwirrung kommen können und wir uns auch immer die viele Schreibarbeit ersparen wollen, führen wir nun für die Ableitungen folgende Notation ein: ∂φ = φ,x ; ∂x ∂φ = φ,α ∂xα (7.3.26) KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 246 Der Index α erscheint unten, was äquivalent zu oben unter dem Bruchstrich ist. Dies ist mit den Transformations-Regeln konsistent. Insbesondere ist xα,β ≡ ∂xα = δβ α ∂xβ (7.3.27) Dies ist ähnlich zur schon bekannten Beziehung ω̃(êβ ) = δβ α (7.3.28) Wir können dies nun auch mit 7.3.22 vergleichen und sehen, dass auch ˜ α (êβ ) = δβ α dx (7.3.29) gilt. Somit können wir den durchaus folgeschweren Schluss ˜ α ≡ ω̃ α dx (7.3.30) ziehen, was bedeutet, dass die Basis der 1-Formen die einzelnen ”Differentiale” sind. Nun wissen wir zum ersten Mal konkret, wie die Basis im Dualraum aussieht. Somit können wir für eine beliebige Funktion f ∂f α ∂f ˜ α ∂f ∂f ∂f ˜ , 2, 3 = ω̃ = dx (7.3.31) df = 1 α ∂x ∂x ∂x ∂x ∂xα ˜ schreiben. Dabei nun beachtet werden, dass df kein Differential an sich muss 0 ˜ apriori keine Richtung -Tensor. Dies muss so sein, da df ist, sondern ein 1 angibt, sondern erst, wenn es mit einem Vektor kontrahiert wird. ˜ (êβ ) = ∂f dx ˜ α (êβ ) = ∂f δ α = ∂f = f,β df α ∂x ∂xα β ∂xβ (7.3.32) ˜ kann auch einen infinitessimalen Wert haben, aber nur wenn Der Ausdruck df er wieder mit einem Vektor kontrahiert wird, d.h. D E ˜ ~v ∂~v f = df, D E ∂f ˜ ∂α f = = f = df, ê (7.3.33) ,α α ∂xα Diese Schreibweise ist vergleichbar mit jener der bra-ket-Vektoren der Diracformulierung der Quantenmechanik. Dies ist auch nicht zufällig, doch auf das wollen wir hier nicht genauer eingehen. 7.3.9 Normale (senkrechte) 1-Formen Ein Normalenvektor ist ein Vektor, welcher senkrecht zu einer Fläche steht. Um ihn zu definieren, wird ein Skalarprodukt und damit eine Metrik benötigt. Er ist dann senkrecht zu einem Tangentialvektor einer Fläche. Doch wie sieht es nun mit einem Pendant bei den 1-Formen aus? Das interessante ist, dass eine normale 1-Form ohne Bezug auf eine Metrik definiert KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 247 werden kann. Sie ist nämlich dann normal zu einer Fläche, wenn sie mit einem Tangentialvektor kontrahiert Null ergibt. Dies wie gesagt ohne Metrik. ω̃⊥ (T~ ) = 0 (7.3.34) Dies rührt daher, dass die Kontraktion wie schon erwähnt fundamentaler als das Skalarprodukt ist. Für eine geschlossene Fläche ist eine normale 1-Form auswärts gerichtet, wenn ihre Kontraktion mit Vektoren die auswärts weisen positiv ist. 7.4 (0, 2)-Tensoren: 2-Formen Wir haben uns nun ausgiebig mit den 1-Formen beschäftigt. Es stellt sich nun die Frage, was ist dienächst höhere Stufe einer 1-Form. Wir haben gesagt, 0 1-Formen seien -Tensoren, welche einen Vektor als Argument ”fressen” 1 0 konnte. Die nächst höhere Stufe, also die -Tensoren, haben 2 Vektoren 2 0 -Tensoren können als Argumente, wie z.B. der metrische Tensor g ( , ). 2 am einfachsten durch das äußere Produkt zweier 1-Formen gebildet werden (wobei dies nicht die einzige Möglichkeit ist): Falls p̃ und q̃ zwei 1-Formen sind, dann ist p̃ ⊗ q̃ das äußere Produkt 0 -Tensor. Steckt man in die ”Schlitze” zwei Vektoren, dann und somit ein 2 ergibt sich eine reelle Zahl, d.h. ~ ~ · q̃ B ~ B ~ = p̃ A (7.4.1) p̃ ⊗ q̃ A, Dabei steht auf der linken Seite das äußere (oder auch tensorielle) Produkt ⊗ der beiden 1-Formen p̃ und q̃ und auf der rechten Seite steht das einfache arithmetische Produkt ·, da hier nur zwei reelle Zahlen miteinander multipliziert werden (erinnere: eine 1-Form die einen Vektor frisst ergibt eine reelle Zahl). Wir haben gesehen, dass das äußere Produkt ⊗ einen Tensor höherer Stufe erzeugen kann. Dabei haben wir das äußere Produkt noch sehr abstrakt definiert und ihm nur diese Eigenschaft zugeschrieben. Definition 7.4.1. Das äußere Produkt ⊗ erzeugt aus zwei Tensoren niedrigerer Stufe einen Tensor höherer Stufe. Es ist wie folgt definiert: ~ ~ ~ · q̃ B ~ p̃ ⊗ q̃ A, B = p̃ A (7.4.2) Das äußere Produkt ⊗ ist nicht kommutativ! Dies ergibt sich aus der Definition, da ~ B ~ = q̃ A ~ · p̃ B ~ 6= p̃ A ~ · q̃ B ~ q̃ ⊗ p̃ A, (7.4.3) KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 7.4.1 248 Die Komponenten eines (0, 2)-Tensors 0 Der allgemeinde -Tensor ist nicht einfach ein äußeres Produkt zweier 2 0 0 -Tensoren, doch kann er als Summe von -Tensoren dargestellt 1 1 werden. 0 Betrachten wir nun die Komponenten eines allgemeinden -Tensors: 2 fαβ = F (êα , êβ ) (7.4.4) Da jeder Index z.B. für N = 3 drei Werte annehmen kann, gibt es 3 × 3 = 9 Komponenten, die man sich als Matrix angeordnet vorstellen kann. Hierbei ist anzumerken, dass die oft gebrauchte Formulierung ein Tensor ist ”so etwas wie eine Matrix” falsch ist, denn erstens würde dies ohnehin nur für Tensoren 0 2. Stufe gelten, und zweitens wird der wichtige Unterscheid zwischen -, 2 1 2 - und -Tensoren nicht gemacht. Der Wert (eine reelle Zahl) von F 1 0 ~ und B ~ ist bei Anwendung auf zwei Vektoren A ~ B ~ = F Aα êα , B β êβ = Aα B β F (êα , êβ ) = Aα B β fαβ (7.4.5) F A, Es stellt sich nun die Frage, können wir eine einfach Basis für diese Ten0 -Tensoren (sogenannte soren angeben? Wir müssten jetzt 3 × 3 = 9 2 2-Formen) ω̃ αβ finden, so dass F = fαβ ω̃ αβ (7.4.6) gilt. Damit würde für die Komponenten gelten: fµν = F (êµ , êν ) = fαβ ω̃ αβ (êµ , êν ) (7.4.7) Analog zu 7.3.16 folgt nun eindeutig, dass ω̃ αβ (êµ , êν ) = δµ α δν β (7.4.8) denn dann wäre fµν = fαβ δµ α δν β Nun gilt ja aber nach 7.3.16 δµ α = ω̃ α (êµ ) und δν β = ω̃ β (eˆν ). Somit ist dann also ω̃ αβ (êµ , êν ) = δµ α δν β = ω̃ α (êµ ) · ω̃ β (êν ) (7.4.9) und dies ist ja ω̃ αβ = ω̃ α ⊗ ω̃ β Daraus folgt aber, dass die Tensoren ω̃ α ⊗ ω̃ β die Basis aller (7.4.10) 0 -Tensoren 2 bilden! F ( , ) = F = fαβ ω̃ αβ = fαβ ω̃ α ⊗ ω̃ β (7.4.11) KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 249 Es ist leicht zu erkennen, dass das Transformationsverhalten der Kompo0 nenten eines -Tensors für eine beliebige Transformation 2 fαβ = Λα µ Λβ ν fµν (7.4.12) gehorchen muss. 7.4.2 Symmetrisierung 0 Wir haben gesehen, dass ein -Tensor zwei Vektoren als Argument hat, 2 wobei die Reihenfolge eine wichtige Rolle spielt. Wir definieren nun Definition 7.4.2. Ein Tensor f heißt symmetrisch, wenn gilt ~ A ~ ~ B ~ ~ B ~ = f B, ∀A, (7.4.13) f A, Dies entspricht der Bedingung für eine symmetrische Matrix, bei der ja die Elemente gespiegelt an der Hauptdiagonalen sind. gleich 0 -Tensor einen symmetrischen Wir können nun aus einem beliebigen 2 Tensor durch folgende Regel bilden: ~ B ~ = 1 H A, ~ B ~ + 1 H B, ~ A ~ H(s) A, 2 2 (7.4.14) In Komponenten entspricht dies 1 1 H(s) (êα , êβ ) = H(s)αβ = H (êα , êβ ) + H (êβ , eˆα ) 2 2 1 = (Hαβ + Hβα ) 2 =: H(αβ) (7.4.15) Hier is H(s) der aus H konstruierte symmetrische Tensor, der die Komponenten H(αβ) hat. Beachte dabei, dass der Tensor H(αβ) nicht das Gleiche wie Hαβ ist. Wir zeigen dies am Beispiel einer Matrixdarstellung. Beispiel Sei C= dann ist nach 7.4.15 C(αβ) = 1 2 1 2 3 4 (Cαβ + Cβα ). KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 250 Die einzelnen Komponenten des symmetrischen Tensors sind somit 1 (C11 + C11 ) = C11 = 1 2 1 = (C22 + C22 ) = C22 = 4 2 1 1 = (C12 + C21 ) = (2 + 3) = 2 2 1 1 = (C21 + C12 ) = (3 + 2) = 2 2 C(11) = C(22) C(12) C(21) 5 2 5 2 Der symmetrische Tensor C(s) ist nun C(s) = 7.4.3 1 5/2 5/2 4 Anti-Symmetrisierung Analog werden auch anti-symmetrische Tensoren definiert. Definition 7.4.3. Ein Tensor f heißt anti-symmetrisch, wenn gilt ~ A ~ ~ B ~ ~ B ~ = −f B, ∀A, (7.4.16) f A, ~ = êα und B ~ = êβ erhalten wir Setzen wir wiederum A F (êα , êβ ) = fαβ = −F (êβ , êα ) = −fβα (7.4.17) Ein anti-symmetrischer Tensor kann immer durch folgende Vorschrift definiert werden: ~ B ~ = 1 H A, ~ B ~ − 1 H B, ~ A ~ H(A) A, 2 2 1 1 ⇒ H(A) (êα , êβ ) = H (êα , êβ ) − H (êβ , êα ) 2 2 1 = (Hαβ − Hβα ) 2 =: H[αβ] (7.4.18) Somit ist 1 1 (Hαβ + Hβα ) + (Hαβ − Hβα ) 2 2 = H(αβ) + H[αβ] Hαβ = (7.4.19) Daraus lässt sich eine sehr wichtige Eigenschaft ableiten: 0 Jeder -Tensor kann eindeutig in seinen symmetrischen und anti2 symmetrischen Anteil zerlegt werden. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 251 Beispiel Es sei wieder C= Nach 7.4.18 gilt C[αβ] = Tensors sind nun 1 2 1 2 3 4 (Cαβ − Cβα ). Die Komponenten des anti-symmetrischen 1 (C11 − C11 ) = 0 2 1 = (C22 − C22 ) = 0 2 1 1 1 = (C12 − C21 ) = (2 − 3) = − 2 2 2 1 1 1 = (C21 − C12 ) = (3 − 2) = 2 2 2 C[11] = C[22] C[12] C[21] und es folgt C(A) = 0 1/2 −1/2 0 Wir wollen nun zeigen, dass der symmetrische und anti-symmterische Tensor in der Tat den ursprünglichen Tensor C erzeugen 0 −1/2 1 5/2 + C = C(S) + C(A) = 1/2 0 5/2 4 1 2 1+0 5/2 − 1/2 = = 3 4 5/2 + 1/2 4+0 Der metrische Tensor ist ebenfalls symmetrisch: ~ B ~ = g Aα êα , B β êβ = Aα B β g (êα , êβ ) = Aα B β gαβ g A, ~ A ~ = g B β êβ , Aα êα = B β Aα g (êβ , êα ) = Aα B β gβα g B, (7.4.20) Da nun das Skalarprodukt ja eine Zahl ist und diese unabhängig der Reihenfolge wie es gebildet wird immer die gleiche Zahl ergibt ist nun ersichtlich, warum ~·B ~ = Aα B β gαβ = B ~ ·A ~ = B β Aα gβα A (7.4.21) also ~ B ~ = g B, ~ A ~ g A, (7.4.22) und somit gilt natürlich auch gαβ = gβα 7.5 Die Metrik als Abbildung von Vektoren in 1-Formen Sicherlich hat sich der Leser schon die Frage gestellt, ob Vektoren in 1-Formen umgewandelt werden können. Die Antwort zu dieser Frage ist ja. Wie das ganze funktioniert? Mit der schon so oft erwähnten Metrik. Betrachten wir g ( , ) = g: KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 252 0 2 Der metrische Tensor ist vom Typ , was bedeutet, dass er zwei ~, ~ ein Vektor. Dann ist g V Vektoren als Argumente braucht. Es sei also V nichts anderes als eine 1-Form, da dieses Konstrukt einen Vektor als Argument braucht um eine reelle Zahl zu erzeugen, genau wie eine 1-Form auch. Somit ist ~, ≡ Ṽ ( ) (7.5.1) g V ~ ~ ,A ~ =V ~ ·A ~ ⇒ Ṽ A ≡ g V da g ( , ) symmetrisch ist, gilt somit auch ~ Ṽ ( ) = g , V Wie wollen uns nun fragen, wie die Komponenten von Ṽ ( ) aussehen. Dazu setzen wir in bekannter Manier den Basis-Einheitsvektor in 7.5.1 ein. ~ · êα = êα · V ~ = êα · V β êβ Vα = Ṽ (êα ) = V = (êα · êβ ) V β ≡ gαβ V β Wir sehen also Vα = gαβ V β (7.5.2) ~ mit den Komponenten V β eine 1Die Metrik macht also aus einem Vektor V Form mit Komponenten Vα . Hier erkennen wir auch wieder die Notwendigkeit zwischen Ko- und Kontravarianten Vektoren zu unterscheiden. Es gibt jedoch Fälle wo dieser Unterschied nicht zum Vorschein kommt. Dies ist leider (oder zum Glück) bei der Euklidischen Metrik der Fall: 1 0 0 (δαβ ) = 0 1 0 (7.5.3) 0 0 1 Deswegen war es bis vor kurzem auch nicht notwendig, zwischen Vektoren und 1-Formen zu unterscheiden. Es galt also Vα = V β . Doch schon bei einer kleinen Änderung in der Metrik, wie z.B. im Minkowski-Raum in der speziellen Relativitätstheorie, ist die Unterscheidung extrem wichtig. −1 0 0 0 0 1 0 0 (ηαβ ) = (7.5.4) 0 0 1 0 0 0 0 1 Betrachten wir als Beispiel die nullte Komponente eines Vektors im MinkowskiRaum. V0 = ηαβ V β = η00 V 0 + η01 V 1 + η02 V 2 + η03 V 3 = −1V 0 + 0 = −V 0 KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 253 Wir sehen, die Komponente ist nicht mehr gleich. Die äquivalente Betrachtung für die erste Komponente liefert V1 = η1β V β = η10 V 0 + η11 V 1 + η12 V 2 + η13 V 3 = 0V 0 + 1V 1 + 0V 2 + 0V 3 = V1 Die anderen Komponenten berechnen sich gleich und wir erhalten für den Vek~ tor V 0 V V1 ~ = V V2 V3 die 1-Form Ṽ = (V0 , V1 , V2 , V3 ) = −V 0 , V 1 , V 2 , V 3 Bei komplizierteren Metriken können die Unterschiede zwischen Vektor und 1-Form erheblich größer sein. Die ganze Geschichte funktioniert natürlich auch in umgekehrter Richtung, also von 1-Form zu Vektor. Auch dies geschieht wiederum mit der Metrik. Da Vα = ηαβ V β ist, und ηαβ als Komponenten einer Matrix aufgefasst werden können, müssen wir für die Umkehrung lediglich die ”inverse Matrix” finden. Jene existiert jedoch nur, wenn die Determinante nicht verschwindet (siehe 6.3.1). Wir sehen schnell, dass dies für den Euklidischen- und Minkowski-Raum gilt. Die inverse von 7.5.3 und 7.5.4 existieren also. Sei η αβ die inverse von (ηαβ ); dann gilt: Aα = η αβ Aβ (7.5.5) Aβ = ηαβ Aα = ηαβ η αγ Aγ = δβ γ Aγ (7.5.6) Weiters gilt Wie sieht nun η αβ aus? Wegen ηαβ η αγ = δβ γ folgt mit Hilfe von 7.5.4 η 00 = −1, η 0i = 0, η ij = δ ij i, j = 1, 2, 3 (7.5.7) d.h. die Komponenten, von η αβ sind gleich denen von (ηαβ ). Wir wollen an dieser Stelle nochmals eine Anmerkung zum Gradienten ˜ können wir nun auch einen machen. Mit dem Gradienten, d.h. der 1-Form dφ, ~ assoziieren. Seine Komponenten sind durch Gradientenvektor dφ (dφ)α = η αβ (dφ)β (7.5.8) ~ ist wie gewohnt orthogonal zu Flächen gerichtet. Das innere Progegeben. dφ dukt dieses Vektors mit einem Vektor, der in der Tangentialfläche liegt, ist somit ˜ ~ , was die Änderungsrate von Null. Dies wäre aber auch identisch mit dφ V ~ angibt. Liegt nun V ~ in der Tangentialfläche, ist auch jene Ändeφ entlang V rungsrate Null, da hier φ = const. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 254 Für was brauchen wir überhaupt eine Metrik? In der Physik ist das Skalarprodukt von Vektoren sehr oft nützlich. Um aus zwei Vektoren einen Skalar 0 zu generieren braucht man einen -Tensor, also eine Metrik. 2 Weiters gibt die Metrik dem Raum eine Struktur. Sie beschreibt, wie stark er gekrümmt ist, wie ich von Punkt A zu Punkt B komme und wie groß die Abstände zwischen den einzelnen Punkten sind. Es ist die Metrik, die letztendlich dem euklidischen Raum seine typischen Eigenschaften gibt. Räume, bei denen die Norm eines Vektors positiv definit ist (siehe weiter unten) nennt man Riemann’sche Räume. Räume, bei denen die Norm indefinit ist (wie etwa der Minkowski-Raum), werden Pseudo-Riemann’sch genannt. Es sei hier auch noch erwähnt, dass es durchaus auch antisymmetrische Metriken gibt. In der Quantenmechanik findet z.B. eine solche Metrik Anwendung, nämlich jene des Spinor-Raumes. 7.6 Exkurs: Die Quantenmechanik als Beispiel einer Anwendung in der Physik In der Quantenmechanik wird sehr viel vom bis jetzt Besprochenen Gebrauch gemacht. Die Lösung der Schrödingergleichung ist die Wellenfunktion Ψ (~x). Diese ist komplex (und nicht nur im Auffinden der Lösung...). Sie ist ein Element des sogenannten Hilbert-Raumes eines Vektorraumes, der quadrat integrablen Funktionen φ (~x). In der Quantenmechanik ist das innere Produkt zwischen einer Funktion φ (~x) und einer Wellenfunktion Ψ (~x) nicht Z φ (~x) Ψ (~x) d3 x sondern Z φ∗ (~x) Ψ (~x) d3 x wobei φ∗ (~x) die zu φ (~x) komplex konjugierte Funktion ist. Wir können somit sagen, dass φ∗ (~x) wie eine 1-Form auf Ψ (~x) wirkt und nur so das innere Produkt auch wirklich eine reelle Zahl ist. Die Operation des komplex Konjugierens wirkt wie eine Metrik und transformiert φ (~x) → φ∗ (~x), d.h. einen Vektor in eine 1-Form. Dieser Dualismus zwischen φ und φ∗ kann am besten in der Dirac’schen ”bra”- und ”ket”-Schreibweise gesehen werden. Die Elemente des Raumes aller Teilchenzustände sind ket-Vektoren | i, während die Elemente aus dem Dualraum bra-Vektoren h | sind. So bilden die Vektoren |1i und |2i keine reelle Zahlen, sondern nur zum Beispiel h2| 1i bildet eine reelle Zahl und damit einen meßbaren Zustand. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 7.7 255 Norm und Skalarprodukt von 1-Formen Dass ein Vektor eine Norm (respektive einen Betrag) besitzt und dass dieser eine Zahl ist, braucht hier wohl nicht genauer diskutiert zu werden. Für jeden Vektor gilt p2 = pα pα = gαβ pα pβ = p~2 = p̃2 (7.7.1) und dies gilt somit auch für die 1-Form. Dies haben wir in 7.7.1 etwas intuitiv aufgeschrieben und wollen es nun explizit zeigen. Dazu bilden wir die Vektoren p~ in eine 1-Form ab und bilden so die Norm. p̃2 = gαβ (g αµ pµ ) g βν pν (7.7.2) Es muss hier beachtet werden, dass jede unabhängige Summation in 7.7.2 durch einen eigenen Index beschrieben wird, einem sogenannten DummyIndex. Da nun gαβ und g βν zueinander invers sind, kollabiert eine Summation über β zu gαβ g βν = δα ν (siehe 6.1.10). Somit wird aus 7.7.2 p̃2 = g αµ pµ δα ν pν = g αµ pµ pα (7.7.3) Wir sehen, dass mit Hilfe des inversen metrischen Tensors die Norm einer 1-Form aus ihren Komponenten gebildet werden kann. Als Beispiel dazu die Norm einer 1-Form im Minkowski-Raum: p̃2 = − (p0 )2 + (p1 )2 + (p2 )2 + (p3 )2 (7.7.4) Als Vergleich dazu die Norm eines Vektors im Minkowski-Raum (wir sehen, der inverse metrische Tensor ist mit dem nicht inversen identisch) ~ 2 = − A0 A 7.7.1 2 + A1 2 + A2 2 + A3 2 (7.7.5) Inneres Produkt zweier 1-Formen Analog zu Vektoren, kann man nun auch das innere Produkt (Skalarprodukt) für eine 1-Form definieren. Ausgehend von der Definition der Norm schreiben wir das innere Produkt in der Form i 1h p̃ · q̃ = (p̃ + q̃)2 − p̃2 − q̃ 2 (7.7.6) 2 1 = [g αµ (pµ + qµ ) (pα + qα ) − g αµ pµ pα − g αµ qµ qα ] 2 an. Dass dies Zweckmässig ist und zum gewünschten Resultat führt, wollen wir nun zeigen. Wir müssen diese Schreibweise wählen, da wir bis jetzt nur die Norm definiert haben und in 7.7.6 auch nur Normen verwendet (die Summe zweier 1-Formen ist ja wiederum eine 1-Form) haben. Es ist dann also z.B. im euklidischen Raum in Komponenten-Schreibweise KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN p̃ · q̃ = 256 1h (p1 + q1 )2 + (p2 + q2 )2 + (p3 + q3 )2 − (p1 )2 − (p2 )2 − (p3 )2 2 i − (q1 )2 − (q2 )2 − (q3 )2 1h = (p1 )2 + 2p1 q1 + (q1 )2 + (p2 )2 + 2p2 q2 + (q2 )2 + (p3 )2 + 2p3 q3 + (q3 )2 2 i − (p1 )2 − (p2 )2 − (p3 )2 − (q1 )2 − (q2 )2 − (q3 )2 Dabei fallen einige Terme weg und wir erhalten 1 [2p1 q1 + 2p2 q2 + 2p3 q3 ] 2 = p1 q1 + p2 q2 + p3 q3 = Im Minkowski-Raum erhält man analog p̃ · q̃ = −p0 q0 + p1 q1 + p2 q2 + p3 q3 7.8 Allgemeine (M, N )-Tensoren Bis jetzt haben wir uns nur mit speziellen Formen der Tensoren beschäftigt und dadurch einen Einblick in diese Welt bekommen. Nun möchten wir die M abstrahieren. Eigenschaften zu allgemeinen Tensoren der Stufe N Der Dualismus zwischen Vektoren und 1-Formen ist vollständig. Wir haben 1-Formen als lineare Funktionen von Vektoren kennengelernt, d.h. Vektoren werden die Argumente von 1-Formen, die dann als Ergebnis reelle Zahlen produzieren. Wir konnten auch zeigen, dass die Umkehrung ebenfalls gilt, also D E ~ ≡V ~ (p̃) ≡ pα V α ≡ p̃, V ~ p̃ V (7.8.1) Auf diese Weise haben Vektoren als Argument von Tensoren (z.B. 1-Formen) ihre Sonderstellung verloren und wurden selbst zu Tensoren. Die Notation h , i soll diese Gleichstellung von Vektoren mit Tensoren veranschaulichen. Wir erkennen auch, dass die Kontraktion (Verjüngung) von Tensoren die fundamentale Operation ist durch die sich der Dualismus manifestiert. 7.8.1 (M, 0)-Tensoren M Definition 7.8.1. Ein -Tensor ist eine lineare Funktion, die M 0 1-Formen in die reellen Zahlen abbildet. 2 ~ ⊗W ~ erzeugt. Dieser So ist zum Beispiel ein einfacher -Tensor durch V 0 besitzt 2 ”Slots”, in die jeweils eine 1-Form (z.B. p̃ oder q̃) gesteckt werden KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 257 kann. Es gilt dann ~ = V α pα W β qβ ~ q̃ W ~ ⊗W ~ (p̃, q̃) = V ~ (p̃) W ~ (q̃) ≡ p̃ V V Die Komponenten des 2 0 (7.8.2) ~ ⊗W ~ ( , ) sind also durch V α W β ge-Tensors V geben. Die Basis eines solchen Tensors finden wir leicht und ist z.B. êα ⊗ êβ (7.8.3) M Analog zum obigen Beispiel werden -Tensoren gebildet. Die Operation 0 ⊗ steht für das äußere Produkt, welches als Resultat einen Tensor höherer Stufe erzeugt. M Die Komponenten eines -Tensors sind die reellen Zahlen, welche 0 M entstehen, wenn die Argumente von die Basis-1-Formen ω̃ α sind. Be0 M -Tensoren nur kontravariante Indizes haben (also achte dabei, dass 0 solche, die oben stehen). 7.8.2 (M, N )-Tensoren Die naheliegende Verallgemeinerung aus dem Vorhergegangen ist somit: M -Tensor ist eine lineare Funktion die M Definition 7.8.2. Ein N 1-Formen und N Vektoren als Argumente hat und in die reellen Zahlen abbildet. 1 -Tensor, dann besitzt dieser zwei ”Schlitze” um Sei zum Beispiel < ein 1 eine reelle Zahl erzeugen zu können. Einen für eine 1-Form p̃ und einen für ~ Die Komponenten dieses Tensors sind dann durch einen Vektor A. Rβ α = < (ω̃ α ; êβ ) (7.8.4) gegeben. M Ein -Tensor hat somit M kontravariante und N kovariante Indizes. N Transformieren wir nun Rβ α in ein neues Bezugssystem, so gilt: Rβ α = < ω̃ α ; êβ = < Λµ α ω̃ µ ; Λβ ν êν = Λµ α Λβ ν < (ω̃ µ ; êν ) = Λµ α Λβ ν Rν µ (7.8.5) Die Transformation im allgemeinen Fall funktioniert analog und ist sehr einfach. Jeder Index bringt eine Tranformationsmatrix Λ ins Spiel, wobei die Indizes gemäß der Summenkonvention angeordnet werden. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN Ein Wort noch zur Notation. Wir schreiben für einen < p̃, q̃, . . . ; ~b, ~c, . . . 258 M N -Tensor (7.8.6) wobei ein Komma hier die Trennung der einzelnen gleichartigen Elemente angibt (trennt die einzelnen Vektoren und 1-Formen ab) und ein Semikolon die Trennung zwischen den 1-Formen und Vektoren als Gesamtheit bezeichnet. Die Komponenten von 7.8.6 schreiben wir wie folgt Rµν... αβ... = < ω̃ α , ω̃ β , . . . ; êµ , êν , . . . (7.8.7) 7.8.3 ”Index-Gymnastik” ~ Wir haben gesehen, dass wir mit Hilfe des metrischen Tensors einen Vektor V in eine 1-Form Ṽ überführen können. Vα = ηαβ V β M -Tensor In gleicher Weise erzeugen wir mittels der Metrik aus einem N M −1 -Tensor. Analog dazu, können wir auch mittels der inversen einen N +1 M +1 M -Tensor ge-Tensor einen neuen Metrik η αβ aus einem N −1 N nerieren. Allgemein wird in der deutschen Literatur als Überschiebung die Kontraktion eines oberen Indizes eines Tensors mit einem unteren eines anderen Tensors bezeichnet. Die Kontraktion über einen Index eines Tensors, d.h. das Gleichsetzen eines oberen und eines unteren Indizes und anschließenderSummation wird als bezeichnet. Hierdurch entsteht aus Verjüngung M −1 M -Tensor. einem -Tensor ein N −1 N 2 -Tensor Tγ αβ , dann gilt Ein Beispiel: Betrachten wir den 1 Tβγ α = ηβµ Tγ αµ (7.8.8) 2 1 Wir haben also aus einem -Tensor einen -Tensor generiert. Wei1 2 ters können wir unter anderem die Tensoren Tα β γ = ηαµ Tγ µβ (7.8.9) 3 (beachte, dieser Tensor ist komplett verschieden zu 7.8.8) oder den 0 Tensor T αβγ = η γµ Tγ αβ (7.8.10) generieren. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 7.8.4 259 Metrik mit gemischten Komponenten Wir haben gesehen, dass die Komponenten der Metrik durch ηαβ gegeben sind und jene der inversen durch η αβ . Wir können nun auch für den metrischen Tensor einen Index rauf oder herunter ziehen, ηβ α = η αµ ηµβ ≡ δβ α (7.8.11) da (η αµ ) und (ηµβ ) inverse Matrizen sind. Ziehen wir noch einen Index hoch, ergibt sich lediglich eine Identität η αβ = η µβ ηµ α = η µβ δµ α ≡ η αβ (7.8.12) Für den metrischen Tensor g sind die kontravarianten Komponenten gleich jener Elemente der Matrix, die zu den kovarianten Komponenten von g invers sind. Der metrische Tensor ist der einzige Tensor, für den dies gilt! 7.9 Differentiation von Tensoren allgemein Wie Tensoren abgeleitet werden, haben wir schon im Kapitel 7.3.8 ange kurz 0 -Tensor sprochen. Wir wollen uns erinnern, dass eine Funktion F ein 0 M 0 ˜ ein -Tensor. Die Differentiation eines ist, und der Gradient dF N 1 M -Tensor. Tensors erzeugt somit einen N +1 1 -Tensor mit den Komponenten R(t)β α . Es sei zum Beispiel <(t) ein 1 Wir können nun allgemein < schreiben als <(t) = R(t)β α ω̃ β ⊗ êα (7.9.1) Die Ableitung von <(t) nach t ist dann gegeben durch den Differenzenquotient d<(t) <(t + ∆t) − <(t) = lim ∆t→0 dt ∆t (7.9.2) Da die Basisvektoren und Basis-1-Formen sich nicht mit t ändern sollen, d.h. ω̃(t + ∆t) = ω̃(t) folgt dRβ α d<(t) = ω̃ β ⊗ êα (7.9.3) dt dt da wie gesagt dω̃ β dêα = ≡0 dt dt Wie im Falle des Gradienten gilt aber φ,α ≡ ∂φ ∂xα KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN und 260 dφ ∂φ α = U dt ∂xα womit also gilt dφ = φ,α U α dt Wir können nun also folgendes schreiben dRβ α = Rβ,γ α U γ dt 1 1 Dabei ist ein -Tensor, da er ja nach der Definition des Differenzen 1 quotientes nur die Differenz von zwei -Tensoren ist. Aufgrund der Kon1 ~ ist Rβ,γ α aber ein 1 -Tensor. Es ist somit traktion mit U 2 d< dt (7.9.4) d< = Rβ,γ α ω̃ β ⊗ êα U γ dt da U γ = dxγ dt . Es ist nun ∂xγ ∂< α β σ α β = R ω̃ ⊗ ê ⊗ ω̃ = R ω̃ ⊗ ê ⊗ δσ γ ω̃ σ α α β,γ β,γ ∂xσ ∂xσ (7.9.5) Der Gradient des Tensors < ist nun ~ = ∂< = Rβ,γ α ω̃ β ⊗ êα ⊗ δσ γ ω̃ σ ∇< ∂xσ = Rβ,γ α ω̃ β ⊗ ω̃ γ ⊗ êα (7.9.6) ~ da d˜ bereits für einen anderen Zweck reserWir benützen die Schreibweise ∇, viert ist. Es gilt ferner als Notation d< ~ ~< ≡∇ U dt ~ differenziert wird, sondern entlang einer KurDies bedeutet nicht, dass nach U ~ tangential ist. ve, zu der U d< ~ ~ < → {Rβ,γ α U γ } ≡∇ U dt Bei dieser Herleitung wurde benutzt, dass sich die Basis-Vektoren und Basis 1-Formen nicht mit dem Ort ~x ändern. Genau das ist aber zum Beispiel in der allgemeinen Relativitätslehre nicht mehr gegeben, da ändert sich die Metrik von Ort zu Ort. Wir werden dann sehen, dass die örtliche Änderung der Metrik mit Hilfe der Christoffel-Symbole beschrieben werden kann. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 7.10 Spezielle Tensoren 7.10.1 Kronecker-Delta 261 Wir haben es schon oft benutzt, jetzt wollen wir es endlich systematisch einführen: das Kronecker-Delta. Wir haben die exakte Definition bewusst bis jetzt herausgezögert, damit wir die Tensorform des Kronecker-Deltas sichtbar machen konnten um es entgegen gängigen Lehrbüchern auch gleich so zu definieren. Wir verwenden von jetzt an immer die Tensorform des KroneckerDeltas. Definition 7.10.1. Das Kronecker-Delta ist wie folgt definiert: ( 0, i 6= j δj i = (7.10.1) 1, i = j Das Kronecker-Delta ist also ein symmetrischer Tensor, der in der Diagonalen nur die Elemente 1 enthält, ansonsten 0. Eine wichtige Eigenschaft des Kronecker-Delta ist es, dass es gleiche Indizes austauscht. Also in einem Beispiel: n j δj i δm n Aklm i = δm Aklm = Akln j Weiters betrachten wir noch eine andere Eigenschaft, die hauptsächlich von der einsteinschen Summenkonvention herrührt. Was bedeutet der Ausdruck δi i ? Nachdem über gleiche Indizes von 1 . . . N summiert wird gilt δi i = δ1 1 + δ2 2 + . . . + δN N = 1 + 1 + . . . + 1 = N (7.10.2) Da im euklidischen Raum nicht zwischen ko- und kontravarianten Indizes unterschieden wird, gilt dort: δj i = δij = δ ij 7.10.2 Epsilon-Tensor (Levi-Civita Symbol) Auch schon oft angetroffen aber nie richtig definiert wurde der Epsilon-Tensor (auch Levi-Civita Symbol genannt). Er ist ein vollständig anti-symetrischer Tensor. Definition 7.10.2. Der Epsilon-Tensor (Levi-Civita Symbol) ist wie folgt definiert: +1, gerade Anz. von paarweisen Permutationen ij...k ij...k = = −1, ungerade Anz. von paarweisen Permutationen 0, wenn zwei oder mehrere Indizes gleich sind (7.10.3) Zum Beispiel gilt: ijkl = −jikl = +jkil = . . . Die erste Vertauschung von i und j ist ungerade, daher das Minuszeichen. Werden zusätzlich noch i und k vertauscht, so hat man eine gerade Anzahl von Permutationen, daher das Pluszeichen. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 262 Der Epsilon-Tensor kann auch in einer gemischten Form auftreten. Dabei gelten die gleichen Eigenschaften wie bei der nicht gemischten Form. Es gilt deswegen zum Beispiel für einen Tensor 6. Stufe ijklmn = ijklmn = ijk lmn = ijkl mn = . . . (7.10.4) Das Transformationsverhalten des Epsilon-Tensors ist analog zu normalen Tensoren µνρ = Λµ η Λν σ Λρ τ ηστ (7.10.5) und im allgemeinen sind die Λµ η 6= 1. Gehen wir nochmals kurz darauf ein, wie die Permutationen vorzunehmen sind. Im Falle von drei Indizes kann man die geraden und ungeraden Permutationen auch als zyklisch und anti-zyklisch betrachten. k i k j i anti-zyklisch j Abbildung 7.10.1: Graphische Darstellung einer zyklischen und antizyklischen Vertauschung zyklisch Eine zyklische Permutation liegt dann vor, wenn die Indizes im mathematisch positiven Sinn (der vordere Index wird immer nach hinten geschoben) permutiert werden. Die Ausgangssituation ist i, j, k. i, j, k j, k, i k, i, j Eine anti-zyklische Permutation ist das exakte Gegenteil, z.B. es wird von k, j, i gestartet (es kommt nicht darauf an, wo gestartet wird). k, j, i j, i, k i, k, j Für alle, die sich lieber was graphisches merken wollen, sind die Permutationstypen auch nochmals in 7.10.1 abgebildet. Da der Epsilon-Tensor 3. Stufe sich auch gut visualisieren lässt, haben wir dies anhand eines Würfels in 7.10.2 gemacht. 7.10.2.1 Rechenregeln für den Epsilon-Tensor Wir wollen nun die Rechenregeln für den Epsilon-Tensor angeben. Man kann sich schnell vergewissern, dass der Epsilon-Tensor in folgender Form aufgeschrieben werden kann. 1 1 1 δi 2 δj 2 δk 2 δj δk (7.10.6) ijk = δi δi 3 δj 3 δk 3 KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 0 263 0 0 0 1 3 0 0 0 -1 0 0 0 j 0 0 1 -1 2 0 0 -1 0 3 0 1 0 2 0 k 0 1 0 1 2 0 1 3 i Abbildung 7.10.2: Bildform des Epsilon-Tensors. Multiplikation zweier Epsilon-Tensoren, keine gleichen Indizes Das Produkt zweier Epsilon-Tensoren 3. Grades schreibt sich in der allgemeinsten Form 1 δi δj 1 δk 1 δ1 l δ1 m δ1 n ijk lmn = δi 2 δj 2 δk 2 δ2 l δ2 m δ2 n δi 3 δj 3 δk 3 δ3 l δ3 m δ3 n Damit wir nicht die Determinanten ausschreiben müssen und alles ausmultiplizieren, erinnern wir uns an die Determinanten-Rechenregel det A · det B = det A · B und transponieren die erste Matrix (das verändert ja den Wert der Determinante nicht), erhalten wir 1 2 3 δi δi δi δ1 l δ1 m δ1 n δi l δj l δk l ijk lmn = δj1 δj2 δj3 δ2 l δ2 m δ2 n = δi m δj m δk m (7.10.7) δ 1 δ 2 δ 3 δ3 l δ3 m δ3 n δi n δj n δk n k k k Um zu zeigen, wie man das herleitet, schauen wir uns das erste Element der resultierenden Determinante an. Nachdem die beiden Matrizen miteinander multipliziert werden (siehe Rechenregel für Determinaten oben), besteht das erste Element der Determinante rechts aus δi 1 δ1 l + δi 2 δ2 l + δi 3 δ3 l = δi k δk l = δi l Dabei haben wir die Einsteinsche Summenkonvention angewendet. 7.10.6 und 7.10.7 können sinngemäss auch auf höherstufige Epsilon-Tensoren ausgeweitet werden, sollte der Bedarf bestehen. KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 264 Multiplikation zweier Epsilon-Tensoren, ein gemeinsamer Index Wir betrachten nun den Fall, bei dem zwei Epsilon-Tensoren über einen gemeinsamen Index summiert werden. Dazu nützen wir die Kontraktion eines Tensors aus. ijk lmk = ijk lmk = ij lm Dies ist mittels 7.10.7 ij lm δ l δj l = im δj m δi = δi l δj m − δi m δj l Somit ist also ijk lmk = δi l δj m − δi m δj l (7.10.8) Wir merken an, dass im euklidischen Raum dies identisch ist mit ijk lmk , da hier die ko- und kontravarianten Komponenten der Tensoren gleich sind. Multiplikation zweier Epsilon-Tensoren, zwei gemeinsame Indizes Sind zwei Indizes gleich, können wir von der vorher hergeleiteten Relation ausgehen. ijk ljk = δi l δj j − δi j δj l Nachdem über gleiche Indizes summiert wird, ist δj j = 3. Im zweiten Term δi j δj l werden die Indizes ausgetauscht und wir erhalten ijk ljk = 3δi l − δi l = 2δi l (7.10.9) Multiplikation zweier Epsilon-Tensoren, drei gleiche Indizes Sind alle drei Indizes gleich, wird es ganz einfach. Auch hier wenden wir die gerade erst hergeleitete Identität an ijk ijk = 2δi i = 6 (7.10.10) da ja wie schon gezeigt, δi i = 3 ist. Beispiel Und wozu kann man das alles brauchen? Der Epsilon-Tensor erleichtert oft das Rechnen mit Kreuzprodukten. Zum Beispiel haben wir im Kapitel mit den Vektoren schon vorweggenommen, dass das Kreuzprodukt mit 5.2.43 als ~a × ~b = jk i aj bk geschrieben werden kann. Damit können wir beliebige Kombinationen von Kreuzprodukten ausrechnen, ohne dass wir das alles komponentenweise ausrechnen müssen (was man vielleicht mal gemacht haben muss, damit man vom Epsilon-Tensor endgültig überzeugt ist - zwei Minuten oder einige halbe Stunden rechnen macht schon einen Unterschied). Wir wollen das Verfahren am folgenden Beispiel zeigen. ~a × (~b × ~c) KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 265 Als erstes möchten wir zeigen, wie wir so einen Ausdruck in die Indexschreibweise übersetzen. Am sichersten ist es, einen Ausdruck von innen nach aussen umzuschreiben, also die innerste Klammer zuerst, und sich dann immer weiter nach außen. vorarbeiten Nachdem im Falle eines Kreuzprodukts ein Vektor resultiert, bleibt immer h ii ein Index übrig, der den neuen Vektor charakterisiert. Für ~a × ~b = jk i aj bk wäre dies der Index i. Damit der Überblick über solche Indizes nicht verloren geht, schreiben wir diese immer hinter die zugehörigen Klammern. Wichtiger noch: während die linke Seite ohne den Index i den neuen Vektor bezeichnen würde gibt jk i aj bk nur die i-te Komponente an, dafür aber eine beliebige. Man sieht also den Vorteil gegenüber dem explixiten Ausrechnen aller Komponenten. In unserem Beispiel würde das dann der Reihe nach so ausschauen. Wir beginnen mit der Klammer h im ~a × (~b × ~c) → ~a × (~b × ~c) = li m al jk i bj ck Nun gilt es, diesen Ausdruck auszuwerten. Dazu verwenden wir hauptsächlich die Gleichung 7.10.8, da wir zwei Epsilon-Tensoren miteinander multiplizieren, die einen gemeinsamen Index besitzen. Es ist nun extrem wichtig, welche Reihenfolge die Indizes einnehmen. In Gleichung 7.10.8 steht der gemeinsame Index immer am Schluss der Epsilon-Tensoren. mli jki In unserem Fall aber, steht im zweiten Tensor der gemeinsame Index i an erster Stelle. Unter Berücksichtigung der Eigenschaften der Permutationen von Indizes können wir den Ausdruck mli ijk in die gewünschte Form bringen. Dazu wird aus ijk → jki und wir erhalten und formen dies mit den entsprechenden Rechenregeln des Kronecker-Deltas um auf al bj ck li m jk i = al bj ck (δj m δlk − δk m δlj ) = ak bj ck δj m − aj bj ck δk m = ak ck bm − aj bj cm → (~a · ~c) ~b − ~a · ~b ~c Der resultierende Ausdruck kann nun wieder in die Vektorform rückübersetzt werden, indem die Definition des Skalarproduktes in Indexschreibweise 5.2.10 berücksichtigt wird. ~a × ~b × ~c = ~b (~a · ~c) − ~c ~a · ~b Man beachte die Klammersetzung, die durch das Skalarprodukt vorgegeben ist, d.h. im allgemeinen ist ~b (~a · ~c) 6= ~b · ~a ~c. Die beschriebene Rechenmethode ist vielleicht am Anfang etwas ungewohnt, aber erleichtert zum Glück das Rechnen erheblich.