Forum der Forschung 18/2005: 19-30 BTU Cottbus, Eigenverlag, ISSN-Nr.: 0947 - 6989 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle 1 Einleitung von Elektromagnetismus und Optik.1 Unsere Alltagswelt ist voll von Geräten, in denen man sich diese Gesetze zunutze macht.2 Theoretische Elektrotechnik, wie ist sie als eigenständiges Fachgebiet der Elektrotechnik entstanden, was ist sie eigentlich aus heutiger Sicht und was wird aus der Theoretischen Elektrotechnik in Zukunft? Diese Fragen sollen hier nicht im Detail beantwortet werden; wir wollen die Fakten für sich selbst sprechen lassen und so zu weiteren Gedanken in diese Richtung anregen. Die Fundamente der Theoretischen Elektrotechnik und damit der gesamten Elektrotechnik liegen im 18. und 19. Jahrhundert mit Wissenschaftlern wie Maxwell und Hertz. Doch auch Einstein, Planck und Dirac haben wesentliche Anteile an ihrer Fortentwicklung. Aber welche sind es und welche Konsequenzen ergeben sich hieraus? Es wird sich im weiteren Verlauf dieser Abhandlung zeigen, wie sich die Theoretische Elektrotechnik fortentwickelt hat, eine Entwicklung, auf die andere aufbaut bzw. sich ergänzt und trotzdem noch nicht abgeschlossen ist und wohl nie sein wird. 1 Heinrich Hertz gelang dann der experimentelle Nachweis der durch die Maxwellschen Gleichungen vorausgesagten elektromagnetischen Wellen3 und legte so den Grundstein für die gesamte Nachrichtentechnik. 3 Nachdem Lorentz das Gesetz für die Kraft auf eine im elektrischen Feld bewegte elektrische Ladung gefunden hatte,4 versuchte man die Maxwellschen Gleichungen dahingehend zu erweitern. Der wohl bekannteste Versuch für bewegte Medien,5 auf dem Boden der klassischen Theorie der Galilei-Transformation, stammt von H. Hertz. Klarheit und Ordnung in die sehr widerspruchsvolle und verwickelte Situation brachte schließlich Einstein (1905) durch die geniale Arbeit „Zur Elektrodynamik bewegter Körper“, die im Wesentlichen die Grundlagen der Speziellen Relativitätstheorie enthält.6 Introduction Theoretical electrotechnology, how it developed as an independent specialist field of electro-technology, what it actually is from today's point of view and what becomes of theoretical electrotechnology in the future? These questions are not to be answered here in the detail; we want to let the facts speak for themselves and thus encourage further thoughts in this direction. The foundations of theoretical electrotechnology, and thus of the whole electrotechnology, date back to the 18th and 19th centuries with scientists such as Maxwell and Hertz. But also Einstein, Planck and Dirac made essential contributions to its further development, but what are they and which consequences result from that. It will be shown in the further progress of this paper how theoretical electrotechnology has developed, how one development builds on another and supplements itself and is still not complete and will probably never be. 2 Von Maxwell über Einstein zur Speziellen Relativitätstheorie Es ist nun eine sehr eindrucksvolle Leistung der Relativitätstheorie, dass sie, wie zuerst Minkowski gezeigt hat, allein aus der Forderung der Invarianz der Feldgleichungen gegenüber Lorentz-Transformationen, diese für bewegte Körper anzuschreiben gestattet, sobald sie für den Fall der Ruhe bekannt sind, und zwar ohne irgendeine atomistische Zusatzhypothese.7 Damit gelten die vier Maxwellschen Gleichungen auch für bewegte Bezugssysteme, die drei Materialgleichungen aber nicht,8 d. h. die Maxwellschen Gleichungen sind Lorentzinvariant, die Materialgleichungen aber nicht. Die Maxwellschen Gleichungen sind nur ein inhaltloses Schema, solange nicht diese Verknüpfungsgleichungen, die den Zusammenhang zwischen den mit der Materie mitbewegten Größen und dem ruhenden System angeben, hinzugefügt werden.9 Um die Materialgleichungen in einem bewegten Bezugssystem zu bekommen, muss man auf die Felder eine Lorentztransformation anwenden.10 Einzeln ist weder die elektrische noch die magnetische Feldstärke (auch in den Maxwellschen Gleichungen) invariant gegen die LorentzTransformation, der ganze antimetrische vierdimensionale Tensor hingegen hat eine invariante Bedeutung;11 dies liegt daran, dass die Spezielle Relativitätstheorie aus der skalaren Optik auskristallisiert ist.12 Von Maxwell über Hertz zu den Grundlagen der Nachrichtentechnik Maxwell vereinheitlichte die Theorie der Erklärung der elektrischen Phänomene mit der Theorie des Magnetismus und formulierte so in seinen berühmten Gleichungen die Theorie des Elektromagnetismus, bei denen er den Verschiebungsstrom als zwingende Existenznotwendigkeit einführte, und damit gelang ihm auch die Vereinigung Hier sei noch bemerkt, dass die Maxwellschen Gleichungen in der Idealen Magnetohydrodynamik Galileiinvariant sind.13 Daher machen 19 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle Koordinatentransformationen kein Problem. Verwendet man dagegen die exakten Maxwellschen Gleichungen, so hat man bei der nichtrelativistischen Theorie immer die Schwierigkeit, dass die mechanischen Gleichungen Galileiinvariant sind, während die Maxwellschen Gleichungen Lorentzinvariant sind.14 Die Gleichungen der idealen Magnetohydrodynamik haben viele wichtige Anwendungen in der Astro- und Plasmaphysik.15 An dieser Stelle noch ein Wort zu den beiden verschiedenen Darstellungen der Maxwellschen Gleichungen und ihren formalen Schreibweisen: ● ● ● Die differentielle Form (Differentialgleichungen) nimmt auf eine lokale (punktförmige) Betrachtungsweise Bezug. Dennoch liefert die differentielle Form für die theoretische Durchdringung tiefere Einsichten und für die Lösung praktischer Probleme durch die Lösung von Differentialgleichungen oft viele Vorteile. Die integrale Form der elektromagnetischen Grundgesetze wird besonders in der Elektrotechnik, z. B. bei der Bewegung von Spulen in Magnetfeldern, Dynamomaschine oder Elektromotor mit großem Nutzen angewendet.16 Die Maxwellsche Theorie des elektromagnetischen Feldes besitzt wichtige Bezüge zu unterschiedlichen Gebieten der Mathematik. Damit liegen sie in verschiedenen mathematischen Sprachen vor: in der Sprache der Differentialform, der Tensoranalysis, der Vektoranalysis, der Integrale, der symmetrischen hyperbolischen Systeme, der modernen Differentialgeometrie, der Eichfeldtheorien.17 Häufig wird nun gefragt: Was ist eigentlich der Unterschied zwischen der Theoretischen Elektrotechnik und der Allgemeinen Elektrotechnik? Es ist ein prinzipieller Unterschied: Die Theoretische Elektrotechnik beschäftigt sich vorwiegend mit verteilten Parametern, also mit Feldern, während sich die Allgemeine Elektrotechnik vorwiegend mit konzentrierten Parametern, also mit Bauelementen, befasst. Die meisten Bauelemente der Elektrotechnik können über den Poyntingschen Leistungsvektor mit Hilfe des komplexen Widerstandes abgeleitet werden, dies gilt auch für Elemente der Ersatzschaltbilder z. B. für elektrische Maschinen. Dass dies unbedingt nötig ist, liegt an der enormen Komplexität der Feldberechnungen, welche daher nur lokal vorgenommen werden können, man denke hier nur an die integrierten Schaltungen (IC) mit ihren Millionen von Einheiten, während die Netzwerktheorie der Elektrotechnik fast beliebige Komplexitäten zulässt. 3.1 gelegentlich vorkommende Behauptung, die Spezielle Relativitätstheorie sei nur bei Bewegungen ohne Beschleunigung (so genannten Trägheitsbewegungen) anzuwenden, trifft nicht zu.20 Die Spezielle Relativitätstheorie kann das Verhalten beschleunigter Objekte voraussagen, sofern man sich bei der Formulierung der physikalischen Gesetze auf ein Inertialsystem bezieht.21 Nicht-Inertialsysteme sind also erlaubt, in ihnen haben die Gesetze aber nicht mehr die gewohnte Form. So verwendet man ja auch in der klassischen Mechanik rotierende Bezugssysteme (etwa für die Kreiselbewegung), obwohl die Grundgesetze (die Newtonschen Axiome) nur im Inertialsystem gelten. Setzt man etwa in das zweite Newtonsche Axiom eine Transformation in ein rotierendes Bezugssystem ein, so erhält die Bewegungsgleichung zusätzliche Terme (Zentrifugal- und Corioliskraft). Das gilt selbstverständlich auch für die vierdimensionalen Maxwellschen Gleichungen22 in der Minkowskiwelt.23 Viele Lehrbücher24 bezeichnen sowohl die Invarianzeigenschaften von relativistischen Gleichungen als auch das Transformationsverhalten kovarianter Vektoren mit „kovariant“.25 Kovarianz einer Gleichung heißt dabei, dass sich ihre Form unter einer Lorentz-Transformation nicht ändert (forminvariant).26 Man beachte, die kovariante Form der MaxwellGleichungen verdeckt die Tatsache, dass die Gleichungen der Quellen des elektromagnetischen Feldes keine Zeitableitungen enthalten und daher Bedingungen für die Anfangswerte der Felder sind. Sie sind durch die restlichen beiden „Zeitentwicklungsgleichungen“ propagiert, d. h. sie gelten immer, wenn sie zu einer Zeit gelten.27 Die beschleunigte relativistische Bewegung soll an drei Beispielen verdeutlicht werden: ● Das erste Beispiel ist das berühmte Zwillingsparadoxon. Ein Weltraumfahrer, der eine Reise von der Erde mit einer der Lichtgeschwindigkeit vergleichbaren Geschwindigkeit unternommen hat, stellt bei seiner Rückkehr zur Erde fest, dass er wegen der Zeitdilatation weniger gealtert ist als sein auf der Erde verbliebener Zwillingsbruder – wer reist, bleibt jung. Bei unbedachter Anwendung des Relativitätsprinzips entsteht daraus leicht eine scheinbar paradoxe Situation. Wegen der Relativität der Standpunkte könnte jeder Zwilling den anderen als den Reisenden betrachten. Danach sollte jeder den anderen bei der Rückkehr weniger gealtert antreffen – offenbar ein Widerspruch. Diese Art der Schlussfolgerung beruht darauf, dass die Voraussetzungen der Speziellen Relativitätstheorie nicht beachtet werden. Die betrachteten Bezugssysteme sind nicht äquivalent im Sinne des Relativitätsprinzips. Der zu Hause gebliebene Zwilling befindet sich dauernd in einem Inertialsystem. Wegen der notwendigen Beschleunigungsperioden befindet sich der Raumfahrer jedoch (mindestens zeitweise) nicht in einem Inertialsystem. Mit Inertialsystemen zu beliebig (beschleunigten) Bezugssystemen Bevor wir zur Elektrodynamik in der Quantentheorie kommen, wollen wir noch einmal auf die oben erwähnte Spezielle Relativitätstheorie und damit verbundene Inertialsysteme zu sprechen kommen. Übrigens vereinigt die Spezielle Relativitätstheorie die Mechanik mit dem Elektromagnetismus.18 Zur Lösung wird angenommen, dass man entlang der Weltlinie des Raumfahrers eine gegenüber Beschleunigungen unempfindliche Uhr (ideale Uhr) benutzt. Die Gangrate einer solchen beschleunigt bewegten idealen Uhr stimmt in jedem Zeitpunkt mit der Gangrate überein, die diese Uhr bei gleichförmiger Bewegung (also in einem Inertialsystem) mit derselben Geschwindigkeit hätte. Dann gilt Der Grund für das Attribut „spezielle“ und die damit verbundene Einschränkung ist häufig missverstanden worden. Die Einschränkung besagt einfach, dass die Spezielle Relativitätstheorie nur in solchen Fällen gilt, in denen man von Gravitationseffekten19 absehen kann. Die 20 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle in jedem Zeitpunkt die Zeitdilatation, die aus der Lorentz-Transformation folgt. – Das Vorgehen ist analog zum bekannten geometrischen Rektifizierungsverfahren, bei dem man die Länge einer Kurve durch die Summe der sie approximierenden Strecken definiert. Die Konstruktion einer idealen Uhr ist im Prinzip möglich, denn Beschleunigungen haben hier absolute Bedeutung. Man kann also die Uhr mit einem Beschleunigungsmesser versehen und die Uhr gemäß der festgestellten Beschleunigung nachregulieren. Im Gegensatz dazu kann der geschwindigkeitsabhängige Effekt der Zeitdilatation nicht eliminiert werden. Eine natürliche ideale Uhr sind in guter Näherung die Myonen wegen der auch bei starken äußeren Kräften unveränderlichen Zerfallszeiten.28 ● ● Das zweite Beispiel bezieht sich auf die Feldtheorie einer beliebig, also auch mit relativistischen Geschwindigkeiten, bewegten Punktladung. Auch dieses Beispiel kann in einem Inertialsystem berechnet werden und zwar mit Hilfe des Lienard-Wiechert-Potentials29, welches eine Lösung der Maxwell-Gleichungen für beliebig bewegte Punktladungen darstellt. Es ist eine relativistische Verallgemeinerung des Coulomb-Potentials der Elektrostatik – der Elektrostatik, damit hätten Sie nicht gerechnet. Man soll eben niemals die „ach so einfachen“ Grundlagen unterschätzen. Beim dritten Beispiel stellen wir nach kurzer Überlegung fest, dass der Magnetismus in Wirklichkeit ein relativistischer Effekt ist. Dazu betrachten wir den Fall, wo zwei Ladungen sich parallel zueinander bewegen, hier müssen wir mit relativistischen Korrekturen an der Bewegung in der Größenordnung im Quadrat des Verhältnisses der Teilchen- zur Lichtgeschwindigkeit rechnen. Diese Korrekturen müssen der magnetischen Kraft entsprechen. Was ist aber zu der Kraft zu sagen die zwischen zwei Leitern wirkt? Da ist die magnetische Kraft die einzige Kraft, es sieht nicht nach einer „relativistischen Korrektur“ aus. Wenn wir außerdem die Geschwindigkeiten der Elektronen im Draht schätzen, stellen wir fest, dass die Durchschnittsgeschwindigkeit entlang des Drahtes ungefähr 0.1 mm pro Sekunde beträgt. Die relativistische Korrektur beträgt also ungefähr 10-25. Gewiss eine unbedeutende „Korrektur“. Aber nein! Obwohl die magnetische Kraft in diesem Fall das 10-25-fache der elektrischen Kraft zwischen den bewegten Elektronen ist, müssen wir bedenken, dass die elektrischen Kräfte aufgrund des nahezu vollkommenen Gleichgewichts verschwunden sind – weil die Leiter dieselbe Anzahl von Protonen wie Elektronen haben. Das Gleichgewicht ist sehr viel genauer als 10-25, und der kleine relativistische Faktor, den wir die magnetische Kraft nennen, ist der einzige, der übrig bleibt. Und damit wird er der wichtigste Betrag. Da die elektrischen Effekte sich in so idealer Weise aufheben, war es möglich, relativistische Auswirkungen (nämlich den Magnetismus) zu untersuchen und die richtigen Gleichungen bis zur Größenordnung des relativistischen Faktors aufzustellen, obwohl die Physiker nicht wussten, dass genau das geschah. Und aus diesem Grund mussten auch, als die Relativität entdeckt wurde, die elektromagnetischen Gesetze nicht abgeändert werden. Im Gegensatz zu den Gesetzen der Mechanik waren sie schon bis zur Größenordnung des relativistischen Faktors genau.30 Andererseits ist bei den Anwendungen der Speziellen Relativitätstheorie – wie schon oben erwähnt – darauf zu achten, dass die mit Hilfe des metrischen Tensors im Minkowski-Raum, also mit dem konstanten Minkowskitensors gewonnenen Aussagen, nur in nicht beschleunigten Bezugssystemen gelten, d. h. auf Inertialsysteme beschränkt sind. Diese mit der pseudo-euklidischen Metrik verbundene Beschränkung auf Inertialsysteme wird oft übersehen. In einem beschleunigten Bezugssystem sind Trägheitskräfte (nichtpermanente Gravitationskräfte) vorhanden. Solche Bezugssysteme sind daher zu den Inertialsystemen nicht äquivalent. Der entsprechende metrische Tensor hat nicht mehr die einfache konstante Form, sondern hängt von den Koordinaten selbst ab. Das Linienelement wird dann durch krummlinige Koordinaten ausgedrückt. Das Einsetzen der Koordinatentransformation in das Wegelement ändert nicht die Bedeutung des Wegelementes, sondern nur dessen Ausdruck.31 Im Falle des echten (permanenten) Gravitationsfeldes kann die Raum-Zeit Mannigfaltigkeit nicht mehr der Minkowski-Raum sein.32 3.2 Vom beliebigen Bezugssystem über lokale Inertialsysteme zur Allgemeinen Relativitätstheorie Was ist denn nun eigentlich das Besondere an einem beliebig beschleunigten Bezugssystem und warum beschäftigen wir uns in der Theoretischen Elektrotechnik bzw. Feldtheorie damit – was hat das alles mit unserer Alltagswelt zu tun und welche gesellschaftlichen Auswirkungen ergeben sich? Die erste Frage werden wir gleich beantworten, die Antwort auf die zweite Frage folgt dann automatisch. Die Verallgemeinerung des beliebig beschleunigten Bezugssystems führt zur Allgemeinen Relativitätstheorie (ART); in der Speziellen Relativitätstheorie werden physikalische Prozesse typischerweise von inertialen, d. h. ruhenden oder mit konstanter Geschwindigkeit bewegten Beobachtern beschrieben. Nach den Prinzipien der Speziellen Relativitätstheorie ist kein Inertialsystem ausgezeichnet, jedes physikalische Experiment verläuft in jedem Inertialsystem genau gleich. Im Gegensatz dazu haben beschleunigte oder rotierende Bezugssysteme durch das Auftreten von Trägheitskräften eine absolute Bedeutung in der Speziellen Relativitätstheorie. Die Allgemeine Relativitätstheorie resultierte aus dem erfolgreichen Versuch Einsteins, diese spezielle Rolle der Inertialsysteme aus der Relativitätstheorie zu eliminieren und allgemeine, beliebig beschleunigte und rotierende Bezugssysteme gleichwertig zu erlauben. Trägheitskräfte die in einem nicht inertialen Bezugssystem wirken, sind lokal aber nicht von Gravitationskräften zu unterscheiden. Das ist in komprimierter Form der Grund dafür, dass die Allgemeine Relativitätstheorie eine Theorie der gravitativen Wechselwirkungen darstellt. Ein Schlüssel zur Allgemeinen Relativitätstheorie ist daher die Beschreibung von Trägheitskräften in der Speziellen Relativitätstheorie. Durch Transformation der Bewegungsgleichung eines kräftefreien Teilchens in einem Inertialsystem in ein Nicht-Inertialsystem werden die Komponenten der neuen Terme der Christoffel-Konnexion mit den auftretenden Trägheitskräften sowie die Komponenten der Metrik mit dem entsprechenden Trägheitspotential identifiziert. Die lokale 21 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle Gleichsetzung von Gravitationskräften mit Trägheitskräften durch das Äquivalenzprinzip führt unmittelbar zu den folgenden Grundideen der Allgemeinen Relativitätstheorie: Gravitationspotentiale bzw. -kräfte werden mit der Metrik bzw. mit der Christoffel-Konnexion identifiziert. Lokal ergibt sich die (flache) Geometrie der Speziellen Relativitätstheorie: die Tangentialräume (lokale Inertialsysteme) an jedem Punkt der Raumzeitmannigfaltigkeit sind Minkowski-Räume. In endlichen Gebieten kann die Gravitation allerdings nicht durch Transformation auf ein frei fallendes Bezugssystem „wegtransformiert“ werden. Dies bedeutet mathematisch, dass die Christoffel-Konnexion in Anwesenheit von Gravitationsfeldern im Allgemeinen nicht integrabel ist. Somit verschwindet der entsprechende Riemannsche Krümmungstensor – im Unterschied zur Speziellen Relativitätstheorie – nicht mehr: die speziell-relativistische Minkowski-Geometrie wird in der Allgemeinen Relativitätstheorie von einer Riemannschen Geometrie der Raumzeit abgelöst. Die Feldgleichungen der Allgemeinen Relativitätstheorie bestimmen die Geometrie der Raumzeit in Abhängigkeit von der Verteilung der Materie, d. h. wie die Raumzeit bei einer bestimmten Energie- und Masseverteilung gekrümmt ist. Dabei wird die Raumzeitgeometrie durch die Metrik bzw. durch den entsprechenden Riemannschen Krümmungstensor und Materie durch den Energie-Impuls-Tensor beschrieben. So trägt auch elektromagnetische Energie zur Krümmung der Raumzeit bei. Um die Feldgleichungen zu finden, orientierte sich Einstein am Prinzip der allgemeinen Kovarianz: die Formulierung physikalischer Gesetze muss unabhängig vom verwendeten – inertialen oder nichtinertialen – Bezugssystem sein. Für die mathematische Beschreibung folgt daraus, dass die Gesetze der Physik tensoriell formuliert werden müssen. Die Feldgleichungen sind darüber hinaus einem Korrespondenzprinzip unterworfen, damit in zwei wichtigen Grenzfällen der Beobachtung Rechnung getragen wird. Erstens muss im Limes verschwindender Gravitation die Spezielle Relativitätstheorie als Grenzfall enthalten sein, und zweitens muss für nichtrelativistische Geschwindigkeiten und schwache Gravitationsfelder die Newtonsche Gravitationstheorie resultieren. Insbesondere muss also die Poissongleichung für das Newtonsche Gravitationspotential im genannten Limes aus den Feldgleichungen folgen. Die Gravitationspotentiale der Allgemeinen Relativitätstheorie sind aber die Komponenten der Metrik, daher suchte Einstein nach Differentialgleichungen zweiter Ordnung für diese Komponenten. Die im November 1915 von Einstein vorgeschlagenen, praktisch gleichzeitig auch von Hilbert gefunden Feldgleichungen, sind die berühmten Einstein-Gleichungen. Aus den Einstein-Gleichungen folgt durch Anwendung der kontrahierten Bianchi-Identitäten die lokale Energie-Impuls-Erhaltung. Einstein erkannte, dass sich daraus die Bewegungsgleichung der Allgemeinen Relativitätstheorie, die geodätische Gleichung, ableiten lässt, wobei die Christoffel-Konnexion im Unterschied zur speziell-relativistischen Gleichung in der allgemeinen Theorie zu einem Riemann-Tensor gehört. Die Bewegungsgleichung muss also nicht zusätzlich postuliert werden, sondern ist, wie auch schon in der Elektrodynamik, in den Feldgleichungen enthalten. Damit ist ein wichtiger Kreis geschlossen: durch die Einstein-Gleichung „sagt“ die Materie im Universum der RaumzeitGeometrie wie sie sich krümmen soll. Gleichzeitig „sagt“ die Raumzeit- Geometrie der Materie wie sie sich bewegen soll: auf den durch die geodätische Gleichung festgelegten Geodäten. Hier zeigt sich die Umsetzung des Machschen Prinzips in der Allgemeinen Relativitätstheorie.33 Das Machsche Prinzip ist die Hypothese, dass die Trägheitskräfte durch die Gesamtheit der im Universum vorhandenen Materie verursacht werden.34 Zum Schluss der Überlegungen zur ersten Frage ergibt sich folgende Übersicht: 1. Das Äquivalenzprinzip ist die lokale Gleichsetzung von Gravitationskräften mit Trägheitskräften. 2. Mit Hilfe des Äquivalenzprinzips konnte Einstein den Einfluss der Gravitation auf physikalische Phänomene ermitteln, denn hiernach brauchte man nur das betreffende Phänomen von einem beschleunigten Bezugssystem aus betrachten. Er erhielt so bereits aus der Speziellen Relativitätstheorie 1907 das Ergebnis, dass Uhren in starken Gravitationsfeldern langsamer gehen als in der Umgebung von schwächeren Gravitationsfeldern.35 3. Die Frequenzänderung elektromagnetischer Wellen unter dem Einfluss eines Gravitationsfeldes beruht auf dem Zusammenhang zwischen Eigenzeit und Zeitkoordinate und der daraus resultierenden Zeitdilatation im Gravitationsfeld.36 4. Für reale Gravitationsfelder gibt es keine globale Transformation, die das allgemeine Wegelement auf die Minkowskiform bringt. Umgekehrt gilt, dass der Raum eben ist, wenn es eine solche Transformation gibt.37 5. Das Bezugssystem des beschleunigten Koordinatensystems könnte auch ein rotierendes Bezugssystem sein. Dann würden die Komponenten der Metrik außer Gravitationskräften auch Zentrifugal- und Corioliskräfte beschreiben. Solche Kräfte sind hier äquivalent.38 6. Lokale Inertialsysteme (Satellitenlabor) existieren nur in einem Punkt, da nur dort die Zentrifugalkraft und die Gravitationskraft sich exakt aufheben, in unmittelbarer Umgebung existiert die Mikrogravitation. Auch können zwei Inertialsyteme zweier Satteliten auf unterschiedlichen Bahnen nicht ineinander überführt werden – es gibt dafür keine Lorentz-Transformation.39 Im lokalen Inertialsystem gelten die bekannten Gesetze der Speziellen Relativitätstheorie ohne Gravitation.40 7. Das Kovarianzprinzip bedeutet, man formuliert die physikalischen Gesetze, die nichts mit der Gravitation zu tun haben, in ihrer speziell-relativistischen Form und ersetzt anschließend die partiellen Ableitungen durch die kovarianten Ableitungen.41 Angewandt auf die speziell-relativistischen Maxwellgleichungen ergibt deren kovariante Verallgemeinerung, also die Maxwellgleichungen im Gravitationsfeld (oder krummlinigen Koordinaten).42 8. Das Gravitationsfeld geht über die Christoffel-Konnexion in die kovarianten Ableitungen der Maxwellgleichungen ein.43 9. Das magnetische Feld geht auch in die Einsteinschen Feldgleichungen ein, weil es als Energieform Quelle des Gravitationsfeldes ist.44 Daher stellen die kovariante Verallgemeinerung der Maxwellgleichungen45 und die Einsteinschen Feldgleichungen im Prinzip ein gekoppeltes System für die elektromagnetischen Potentialfelder und die Komponenten der Metrik dar – in der Gravitationstheorie repräsentiert die Metrik selbst eine dynamische Variable.46 Der Bei- 22 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle trag des elektromagnetischen Feldes zur Energiedichte kann aber meist gegenüber vorhandenen Massen vernachlässigt werden. Dann sind die Komponenten der Metrik in den Maxwellgleichungen vorgegebene äußere Felder,47 d. h. die Metrik des Raumes ist dabei unabhängig von den dynamischen Variablen fest vorgegeben.48 10. Die Komponenten der Metrik hängen vom Gravitationsfeld und den gewählten Koordinaten ab. Daher stellen die kovariante Verallgemeinerung der Maxwellgleichungen auch die richtigen Gleichungen für krummlinige Koordinaten dar, zum Beispiel für Kugelkoordinaten im euklidschen Raum (also ohne Gravitationsfeld). Das gelegentlich mühevolle Umschreiben von Vektorgleichungen auf spezielle nichtkartesische Koordinaten ist in dieser Form der Maxwellgleichungen allgemein und kompakt gelöst.49 11. Das Äquivalenzprinzip ist die lokale Gleichsetzung von Gravitationskräften mit Trägheitskräften. Ist dann eine lokale Unterscheidung zwischen permanenten und nichtpermanenten Gravitationsfeldern überhaupt möglich? Erstaunlicherweise gibt es ein geometrisches, d. h. koordinatenunabhängiges Kriterium, nämlich über den Riemannschen Krümmungstensor:50 In einem Ereignis liegt ein permanentes Gravitationsfeld vor, wenn der Krümmungsvektor in diesem Ereignis nicht verschwindet.51 12. Eine Besonderheit sei hier noch angemerkt, dass geladene Teilchen in einem inhomogenen Schwerefeld anders fallen als ungeladene. Dieses folgt aus der Lorentz-Dirac-Gleichung der Algemeinen Relativitätstheorie.52 Unsere zweite Frage lautete: Was hat das alles mit unser Alltagswelt zu tun und welche gesellschaftlichen Auswirkungen ergeben sich? Unsere heutige Welt ist ohne Satelliten nicht mehr vorstellbar. Satelliten bewegen sich aber immer in einem Gravitationsfeld. Als Beispiel betrachten wir eine Uhr, die auf der Erdoberfläche ruht, und eine gleichartige Uhr in einem die Erde umkreisenden Satelliten. Im Vergleich zur Erduhr geht die Uhr im Satelliten schneller (S), weil das Gravitationsfeld dort schwächer ist, und langsamer (L), weil die Geschwindigkeit des Satelliten größer ist. Moderne Satelliten-Ortungssysteme (GPS, Galileo) müssen beide Effekte berücksichtigen! Zur Berechnung des Gesamteffekts betrachtet man etwa ein Inertialsystem, in dem die Bahngeschwindigkeit der Erde um die Sonne momentan (praktisch heißt das in guter Nährung für einige Wochen) verschwindet. In diesem Inertialsystem ergibt sich die Geschwindigkeit für die Erduhr aus der Eigendrehung der Erde, und für die Satellitenuhr aus der Umlaufgeschwindigkeit. Für einen erdnahen Satelliten überwiegt der zweite Effekt (L), für einen erdfernen Satelliten dagegen der erste (S). Für die Berechnung braucht man bei der Zeit- bzw. Frequenzverschiebung nur das Äquivalenzprinzip. Die Feldgleichungen der Allgemeinen Relativitätstheorie spielen hierbei keine Rolle.53 Die Feldgleichungen der Allgemeinen Relativitätstheorie finden hauptsächlich in der Forschung und hier besonders in der Kosmologie ihre Anwendung. Das soll aber nicht heißen, dass sie keinen Einfluss auf die Entwicklung der Technik hat, hier sei nur das weite Gebiet der Radioastronomie erwähnt. Zwei Beispiele sollen das verdeutlichen: Die kosmische Hintergrundstrahlung, welche 1963 von Arno A. Penzias und Robert W. Wil- son (Nobelpreis 1978) entdeckt wurden. Sie erkannten, dass das ständige Radiorauschen in den Empfängern einen astrophysikalischen Ursprung hatte. Diese kosmische Hintergrundstrahlung ist das rotverschobene und erkaltete Glimmen des Urknalls aus der Zeit, als das Universum von einem photonendominierten in einen materiedominierten Zustand wechselte. Messungen dieses Hintergrunds bilden heute die Grundlage für die Vermessung der Geometrie des Universums und die Bestimmung seiner fundamentalen Konstanten (Dichte der dunklen Materie, Dunkle Energie, Krümmungsradius, etc.). Das zweite Beispiel sind die von der Allgemeinen Relativitätstheorie vorausgesagten Gravitationswellen: Die Rotation eines Neutronensterns liefert ein ultrapräzises Zeitsignal im Radiobereich. Die darauf folgende Entdeckung eines Doppelpulsars und seiner Periodenänderung führte zum indirekten Nachweis von Gravitationswellen durch die Messung der Orbitaländerung (Phase) des von Hulse und Taylor untersuchten Pulsars als Funktion der Zeit und der vorhergesagten Änderung aufgrund der Abstrahlung von Gravitationswellen im Rahmen der Allgemeinen Relativitätstheorie. Weitere wissenschaftliche und technische Entwicklungen sind auf folgenden Gebieten der Radioastronomie zu erwarten: Erweiterung des Frequenzbereiches bis hin zu 1 THz – noch ein Stück weiter, und der Bereich der Infrarot-Astronomie ist erreicht. Damit ist der größtmöglichste Frequenzbereich nach oben erschlossen; allerdings steckt die Technik der höchsten Frequenzen noch in den Kinderschuhen. Hier liegen zahlreiche Emissionslinien von Molekülen und Atomen, deren Vermessung einen Zugang zur kosmischen Chemie liefern wird. Aber auch die Frequenzen im MHz-Bereich, am unteren Ende de Radiospektrums, liegen seit Jahrzehnten brach. Höhere räumliche Auflösung durch Verbindung von Radioteleskopen auf verschiedenen Kontinenten (interkontinentale Radiointerferometrie oder Very Long Baseine Interferometrie VLBI). Sie liefert die höchste in der Astronomie verfügbare Auflösung – tausendfach so hoch wie das Weltraumteleskop HUBBLE –, die der Auflösung eines virtuellen Einzelteleskops mit dem Durchmesser der Erde entspricht. Die kleinste bisher aufgelöste Struktur hat eine Größe von 18 Mikrobogensekunden am Himmel; dies entspricht dem Winkel, unter dem uns eine auf dem Mond liegende Erdnuss erscheinen würde, und stellt den unangefochtenen Weltrekord dar. Höhere Empfindlichkeit, d. h. die Messung der spektralen Energieflussdichte der elektromagnetischen Strahlung soll in den Nano-Jansky-Bereich vordringen (1Jy = Jansky = 10-26 W m-2 Hz-1). Eine völlig neuartige Erweiterungsmöglichkeit bietet sich der Radioastronomie zurzeit aufgrund einer fast unbegrenzten Flexibilität durch direkte digitale Bearbeitung der Radiowellen. Damit verbunden ist die Möglichkeit, ein Teleskop fast komplett in Software zu realisieren. Hat man nämlich die Radiophotonen, welche die Antennen erreichen – bei einem „Phased Array“ stehen sie und die Empfänger über die ganze Fläche verteilt –, digitalisiert, so kann man ihren Strahlengang (insbesondere ihre relative Verzögerung), so wie er in einer Antennenschüssel verlaufen würde, im Rechner nachbilden und beliebig verändern, bevor man die Photonen in einem digitalen Brennpunkt zusammenführt. Radiophotonen können digitalisiert werden, weil sie aufgrund ihrer Vielzahl den Gesetzen der klassischen Elektrodynamik gehorchen 23 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle und Quanteneffekte keine große Rolle spielen. Die einmal digital vorliegenden Wellen können verlustfrei kopiert und reproduziert werden. Damit lassen sich dann zusätzliche virtuelle Antennen nachbilden „Multi-Beaming“. Allein begrenzt durch die Rechnerleistung, kann man so in beliebig viele Richtungen gleichzeitig schauen, seine Blickrichtung in Sekundenbruchteilen exakt ändern (entsprechend dem Schwenken eines herkömmlichen Teleskops), und – falls man Daten eine zeitlang speichert – auch noch ein paar Minuten in die Vergangenheit schauen (retrospective Beamforming genannt) und den Himmel kurz vor einem plötzlich eingetretenen Ereignis studieren. Das Radioteleskop LOFAR (LOw-Frequency-ARray) wird nach dem Prinzip eines Phased Arrays gebaut, es verspricht nicht weniger als eine komplette Revolution der Radioastronomie bei niedrigen Frequenzen. Sein Einsatzbereich wird zwischen 10 MHz und 220 MHz liegen. Ein höchst interessanter Aspekt liegt in der Datenverarbeitung. Tatsächlich steckt bei diesem Teleskop das meiste Geld im Datennetzwerk (bis zu einem Terabit pro Sekunde), in den Computern in der Software. Die eigentlichen Empfänger – Dipole, Verstärker, und A/D-Wandler – enthalten preiswerte Komponenten heutiger Alltagstechnik. Sein wissenschaftliches Anwendungsgebiet geht von der Kosmologie über das Weltraumwetter bis zur Atmosphären- und Ionosphärenüberwachung.54 Zur gesellschaftlichen Auswirkung der Technik, insbesondere der Informationstechnologien, wollen wir John Gray (Professor für European Thought an der London School of Economics und ehemaliger „Cheftheoretiker“ von Premierminsterin Margaret Thatcher) selbst zu Wort kommen lassen: „Die heutige Entwurzelung des gesellschaftlichen und wirtschaftlichen Lebens geht jedoch nicht allein auf den freien Markt zurück. Hinzu kommt nämlich, dass die technologischen Innovationen westlicher Industrieländer überall kopiert werden. Die regulierte Nachkriegswirtschaft hätte in keinem Fall überleben können, selbst wenn es nicht zur neuerlichen Politik des freien Marktes gekommen wäre – die Fortschritte der Technik, die der traditionellen Vollbeschäftigung ein Ende setzten, hätten dafür schon gesorgt. Insbesondere Informationstechnologien bringen Bewegung in die gesellschaftliche Arbeitsteilung. Viele Berufe verschwinden und keine Stelle ist mehr absolut sicher. Nie seit der Industriellen Revolution war die gesellschaftliche Arbeitsteilung so instabil wie heute. Die globalen Märkte übertragen nun diese Instabilität auf sämtliche Volkswirtschaften der Welt und machen damit eine Politik der Unsicherheit zum universellen Phänomen“. Weiter führt er aus: „Für die Menschheit der ausgehenden Moderne hat sich die Globalisierung längst als ein historisches Schicksal erwiesen, deren Motor die unerbittlich voranschreitende immer schneller werdende Technologieentwicklung ist. Die technikbedingte Modernisierung der Weltwirtschaft wird unabhängig vom Schicksal des freien Weltmarktes anhalten. … Eine der wichtigsten sozialen Institutionen ist der berufliche Lebensweg. In traditionellen bürgerlichen Gesellschaften konnten Angehörige der Mittelschicht davon ausgehen, dass sie ihr Arbeitsleben in ein und demselben beruflichen Bereich verbringen. Das ist heute nicht mehr zu erwarten. Die wirtschaftliche Unsicherheit hat nicht nur zu Folge, dass man viele verschiedene Jobs durchläuft, sondern auch, dass die Vorstellung von einer kontinuierlichen beruflichen Laufbahn an sich hinfällig wird. … Ihr ortsgebundenes und bereits angeeignetes Wissen wird für sie (die Menschen) immer nutzloser“ Soweit John Gray.55 Deswegen ist ein fun- diertes zeitloses Basiswissen für die Zukunft so immens wichtig, auf das man flexibel – je nach Jobangebot – aufbauen kann, die so genannte Strategie der flexiblen Spezialisierung.56 4 Von Maxwell über Planck zu den Grundlagen der Quantentheorie Alle Gleichungen der Physik, die Wechselwirkungen in der Natur beschreiben, sind nichtlinear. Eine scheinbare Ausnahme bilden die linearen Maxwellgleichungen. Diese enthalten jedoch nur einen Teil der elektromagnetischen Phänomene. Die vollständige Theorie, die Quantenelektrodynamik, die die Wechselwirkungen zwischen elektromagnetischen Feldern den Photonen und Elementarteilchen den Elektronen und Positronen berücksichtigt, ist tatsächlich nichtlinear. Ferner ist die lineare Schrödingergleichung der Quantenmechanik und Quantenchemie eine Nährung der relativistischen Diracgleichung, die ihre volle Kraft erst durch Ankopplung an das elektromagnetische Feld entfaltet, also durch die nichtlinearen Gleichungen der Quantenelektrodynamik. Damit kommen wir zur Elektrodynamik in der Quantentheorie.57 4.1 Elektrodynamik in der Quantentheorie Seit etwa 1920 ist die Quantenphysik das wichtigste Instrument des physikalischen Fortschritts, und das gilt für nahezu sämtliche Teilbereiche: die Festkörperphysik, die Atomphysik, die statistische Physik, die Kernphysik, die Teilchenphysik, usw. Ihre Entwicklung begann, als die Physiker Anfang des 20. Jahrhunderts entdeckten, dass die gewöhnlichen Gesetze der Physik sich nicht auf die Atome anwenden ließen. So vermochten diese Gesetze weder die Stabilität der Atome noch den Mechanismus zu erklären, über den die Atome Licht emittieren. Es zeigte sich auch, dass die Elektronen, von denen man zunächst annahm, sie umkreisten den Atomkern etwa in derselben Weise wie Planeten die Sonne, keine fest umrissene Bahn besitzen. Sie scheinen über den Raum ausgebreitet zu sein, sofern man nicht gerade ihre Position misst.58 Den Ausgangspunkt für die Entwicklung der Quantenphysik bildete die Elektrodynamik. Alle anfänglichen Überlegungen bezogen sich auf die Problematik der Spektralverteilung der thermischen Strahlung: Angefangen hat dann alles mit der Energiedichte der von einem schwarzen Körper emittierten Strahlung (Hohlraumstrahlung), welche innerhalb der klassischen Physik durch zwei sich widersprechende Gesetze angegeben wurden. Das Rayleigh-Jeanssch Strahlungsgesetz gab die Experimente im Bereich der langwelligen Strahlung wieder. Das Wiensche Gesetz war im Bereich der kurzwelligen Strahlung korrekt. Durch die Einführung einer neuen Konstanten gelang es Max Planck, eine Interpolation zwischen den beiden Gesetzen zu finden. Das Plancksche Strahlungsgesetz überdeckt den gesamten Frequenzbereich und enthält die beiden anderen Strahlungsgesetze in den jeweiligen Grenzfällen.59 Die Einführung dieser Konstanten (Plancksches Wirkungsquantum) war die Geburtsstunde der Quantenphysik. Was Planck nur formal ein- 24 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle geführt hatte, konnte dann Einstein 1905 mit seiner Lichtquantenhypothese als Energie (Produkt aus Wirkungsquantum und Frequenz) eines Photons physikalisch interpretieren.60 Vorweg wollen wir zwei besondere Beispiele angeben: ● ● Supraleiter, Materialien die den Strom ohne Widerstand leiten, Supra- oder Superflüssigkeiten: Substanzen, die ohne Reibung strömen. Beide Effekte sind nur mit Hilfe der Quantenphysik zu verstehen. Die Besonderheit ist hier jedoch, dass sich der Quanteneffekt makroskopisch, d. h. als in unseren vertrauten Dimensionen, bemerkbar macht.61 Da vielen nicht bewusst ist, wo Supraleitung heute überall Anwendung findet, wollen wir hier einige Beispiele geben: ● Supraleitende Magnetspulen für Kernspinresonanz, Kernspintomographie, Teilchenbeschleuniger, Kernfusion, Energiespeicher, Motoren und Generatoren, magnetische Separation; supraleitende Permanentmagnete; Supraleitung für die Leistungsübertragung bei Kabel, Transformatoren und Strombegrenzer; supraleitende Resonatoren und Filter für Teilchenbeschleuniger und Kommunikationstechnik (Hochfrequenz); Supraleiter als Detektoren als inkohärente Strahlungs- und Teilchendetektoren: Bolometer und Kalorimeter; als kohärente Strahlungsdetektion und -erzeugung: Mischer, Lokalozillatoren und integrierte Empfänger; Quanteninterferometer als Magnetfeldsensoren: SQUID-Magnetometer; Supraleitung in der Mikroelektronik: Spannungsstandards und Digitalelektronik mit Josephsonkontakten.62 Geforscht wird unter anderem an Quantencomputern und an der Quantenkryptografie, deren Sicherheit nicht allein durch mathematische Verschlüsselungsverfahren, sondern durch die physikalischen Gesetze der Quantenmechanik gewährleistet wird (Prototypen existieren 2004 schon). Wir wollen hier nicht die Quantentheorie ableiten, sondern nur die für uns relevanten, d. h. für das Verständnis der elektromagnetischen Felder notwendigen Ergebnisse betrachten. Allen voran interessieren in der Elektrotechnik die Auswirkungen der elektrischen Ladungen (ruhende sowie bewegte), sie sind die Voraussetzung aller elektromagnetischen Felder. – Woraus kann man sich diese Felder nun aufgebaut vorstellen? Die Träger des elektromagnetischen Feldes sind die Photonen (Lichtquant, Strahlungsquant), d. h. das Photon ist das Quant des elektromagnetischen Feldes, welches sich zugleich wie eine Welle und ein Teilchen verhält. In der relativistischen oder kovarianten Formulierung der Elektrodynamik verschmelzen elektrisches Feld und Magnetfeld zum Feldstärketensor. In der Quantenelektrodynamik (QED) wird das (kontinuierliche) elektrische Feld als makroskopischer Limes des Austausches von diskreten, virtuellen Feldquanten, den Photonen, interpretiert.63 Das Photon bildet eine Familie der Elementarteilchen für sich. Jeder elektromagnetischen Strahlung z. B. in Form von Licht (Lichtquanten), Röntgenstrahlung (Röntgenquanten) oder Gammastrahlung (Gammaquanten), entsprechen Photonen mit entsprechender Energie und dem dazugehörigen Impuls, dessen Richtung mit der Ausbreitungsrichtung der elektromagnetischen Strahlung zusammenfällt. Nach der Speziellen Relativitätstheorie ist die Ruhemasse des Photons Null, da es sich mit Lichtgeschwindigkeit bewegt. Ladungen und magnetisches Moment sind ebenfalls gleich Null. Photonen haben ferner den Spin Eins und genügen daher der Bose-EinsteinStatistik, sie zählen also zu den Bosonen. Die Quantentheoretische Beschreibung des Photons erfolgt durch die Quantenelektrodynamik gemeinsam mit dem Elektron und dem Positron.64 Für die elektromagnetische Wechselwirkung (es gibt noch die Gravitation, die schwache und die starke Wechselwirkung) existiert also eine Theorie, die alle Einzelheiten von Feld, Ladung und Austauschquanten erschöpfend beschreibt, die Quantenelektrodynamik. Die elektromagnetische Wechselwirkung bindet Elektronen und Kerne zu Atomen, Atome zu Molekülen und Moleküle zu Molekülverbänden. Die Gesetze der Quantenelektrodynamik sollten es im Prinzip ermöglichen, alle Phänomene der Chemie und der Biologie zu berechnen.65 Wobei zu bedenken ist, dass bereits beim Wassermolekühl für eine genaue Beschreibung die Schrödinger-Gleichung für zehn Elektronen im Kraftfeld von zwei Protonen (gleich Wasserstoffkern) und einem Sauerstoffkern zu lösen ist. Leider übersteigt das bereits die Kapazitäten unser heutigen Computer.66 Hier sei auf ein interessantes Experiment hingewiesen, bei dem die Coulombkraft ausgenutzt wird: Werden Cluster – schwach gebundene Ansammlungen von einigen Atomen oder Molekülen – mit starken Laserpulsen schlagartig ionisiert, so führt die plötzliche Abstoßung der eng benachbarten gleichnamigen Ladungen wegen der schwachen Kohäsionskräfte zur Coulomb-Explosion. Geschieht dies während einer chemischen Reaktion, so geben die Fragmente Auskunft über Reaktionszwischenprodukte.67 Allgemein kann man sagen, dass die in der Chemie übliche Einteilung in verschiedene Bindungstypen (Hetropolare (Ionenbindung), Homöopolare (kovalente), Van der Waals-Bindung) physikalisch gesehen immer Wechselwirkungen auf elektrostatischer Basis sind, die nur insofern den Anschein unterschiedlicher Bindungsarten haben, als die Elektronenwellenfunktionen unterschiedliche Strukturen aufweisen.68 Die Fähigkeit eines Teilchens zur elektromagnetischen Wechselwirkung, d. h. zur Emission oder Absorption eines Photons, ist durch die elektrische Ladung gegeben. Sie ist beim Elektron die elektrische Elementarladung.69 4.2 Von der elektromagnetischen Ladung zum verallgemeinerten Ladungsbegriff70 Die Ladung ist in der Quantenphysik eine streng additive, skalare Größe; die Ladung eines Systems ist also die Summe der Ladungen aller Teilsysteme. Ladungen sind die Quellen von Feldern, die die fundamentalen Wechselwirkungen vermitteln. Die wichtigste Ladung ist die elektrische Ladung (Quarks und einige der Leptonen), die als positive und negative Ladung vorkommt, welche die Ladung der elektromagne- 25 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle tischen Kraft ist, ihre Feldquanten sind die masselosen Photonen. Die Farbladung (Quarks) ist mit den drei Werten rot, grün und blau die Ladung der starken Kraft, ihre Feldquanten sind die masselosen Gluonen, die selbst eine Farbladung tragen und damit, weil sie untereinander koppeln, eine endliche Reichweite haben. Die Flavour-Ladung (Leptonen und Quarks) mit Aroma und Geschmack, welche die Ladung der schwachen Kraft ist, ihre Feldquanten sind die massebehafteten Vektor-Bosonen und die schwere Masse, die die Ladung der Gravitation ist, ihre Feldquanten sind die masselosen Gravitonen (noch hypothetisch). Mit Ausnahme der Masse sind alle Ladungen gequantelt und relativistisch invariant. Die elektromagnetische und die schwache Wechselwirkung wurden zur elektroschwachen Wechselwirkung zusammengefasst. Das Hauptproblem der Vereinheitlichung stellt der große Unterschied in den Massen der Austauschbosonen dar: Das Photon hat die Ruhemasse Null, die Vektorbosonen haben Massen vom Hundertfachen der Protonenmassen. Die Vereinheitlichung gelingt, wenn man am Anfang auch den schwachen Austauschbosonen die Masse Null zuschreibt. Das Photon und die schwachen Bosonen lassen sich durch ein elektroschwaches Austauschboson mit vier Komponenten beschreiben. Der große Unterschied in der Masse ergibt sich erst dadurch, dass die schwachen Bosonen mit dem Higgs-Feldern verschmelzen. Der Nutzen dieser Vereinheitlichung ist groß. Man kann damit das Verhältnis zwischen den Kopplungskonstanten der elektromagnetischen und der schwachen Wechselwirkung und auch die Massen der Vektorbosonen voraussagen. Formal kann auch von einer magnetischen Ladung gesprochen werden, allerdings konnte bisher noch keine magnetische Punktladung, ein sog. magnetischer Monopol, nachgewiesen werden.71 Der eigentliche Ursprung der den Teilchen eigenen Landung ist ungeklärt. Ihre Erhaltung im Verlauf bestimmter Wechselwirkungen folgt aus hochabstrakten (nicht unbedingt geometrischen) Symmetrien, auf denen die betreffenden Theorien basieren. Damit verlagert sich die Frage nach dem Ursprung der Ladungen auf die ebenso ungeklärte Frage nach dem Ursprung der Symmetrien.72 Die Austauschkräfte kann man sich durch eine zwar einfache, aber sicher unzulängliche Vorstellung zugänglich machen. Die maßgebliche Eigenschaft ist eine Ladung im weitesten Sinn (s. oben). Sie befähigt das Teilchen ständig, d. h. in sehr kurzen Abständen, Feldquanten auszusenden. Dieser Prozess kann aber nur „virtuell“ erfolgen, solange kein zweites Teilchen in der Nähe ist. Die Feldquantenenergie kommt dabei „aus dem Nichts“, verletzt also den Energiesatz. Die Physiker glauben an eine solche Verletzung des Energiesatzes nur im Rahmen der Unschärferelation, d. h. innerhalb einer Zeit die proportional dem Quotient aus Planckschen Wirkungsquantums und Energie ist, weil dann innerhalb dieser Zeit das ausgeschickte Feldquant wieder eingefangen werden kann, ehe der Verstoß bemerkt wird. Das „Teilchen spielt ständig Ball“ mit seinen Feldquanten. Man muss natürlich mit derartigen Modellvorstellungen äußerst vorsichtig sein. Sie sind eigentlich von vornherein unzulässig, weil wegen der Unschärferelation nichts über die Vorgänge „an sich“ ausgesagt werden kann. Wenn man sich aber ab und zu an solche grundsätzlichen Vorbehalte erinnert, und mögen sie noch so unqualifiziert wirken, jedenfalls dann, wenn man mit ihrer Hilfe von sonst gänzlich unverständlichen Dingen wenigstens eine Ahnung bekommt. Malen wir das Elementarteilchen-„Ballspiel“ also noch etwas aus. Solange das Teilchen mit sich selbst „Ball spielt“, geschieht nach außen hin nichts. Wir können aber die Reichweite abschätzen, die das Feld der Wechselwirkung hat. Feldquanten mit der Ruhemasse Null wie sie bei der elektromagnetischen Wechselwirkung als Photonen und der Gravitation als Gravitonen auftreten sollen, haben prinzipiell eine unendliche Reichweite. Feldquanten mit endlicher Ruhemasse müssen dagegen nach spätestens einer Zeit, die proportional dem Quotient aus Planckschen Wirkungsquantums und seiner Masse mal dem Quadrat der Lichtgeschwindigkeit ist, wieder eingefangen werden. Da sich das Feldquant höchstens mit Lichtgeschwindigkeit bewegt, folgt daraus seine Reichweite. Von dieser Theorie her ist es gleichgültig, ob das Feldquant, das von einem Teilchen ausgesandt wird, von ihm selbst wieder eingefangen wird oder von einem anderen Teilchen. Der zweite Fall führt jedoch auf eine echte Wechselwirkung, bei der auch ein Impulsaustausch stattfindet und daher eine Kraft auftritt.73 Die Heisenbergsche Unschärferelation (Messprozess in der Quantenmechanik) oder das Heisenbergsche Unbestimmtheitsprinzip wurde von W. Heisenberg 1927 gefunden. Die Gesetzmäßigkeit sagt aus, dass kanonisch konjugierte Größen (wie Ort und Impuls) nicht gleichzeitig und mit beliebiger Genauigkeit gemessen werden können. Mathematisch wird dieser Tatsache Rechnung getragen durch eine Ungleichung bzw. die sog. Vertauschungs- oder Kommutationsrelation. Michael Hall von der Australian National University in Canberra und Marcel Reginatto von der Physikalisch-Technischen Bundesanstalt in Braunschweig haben jetzt gezeigt, dass man die Schrödingergleichung aus einer „exakten Unschärferelation“ herleiten kann. Zur Herleitung ihrer exakten Unschärferelation griffen die beiden Physiker auf ein statistisches Verfahren zurück, welches im Jahr 1925 von dem britischen Mathematiker Ronald Fisher entwickelt worden war. Darüber hinaus machten sie die Annahme, dass sich die Geschwindigkeitsvarianzen zu jedem Zeitpunkt exakt umgekehrt proportional zu den Ortsvarianzen verhalten. Dies ist die einzige Annahme in ihrer Herleitung, die nicht der klassischen Physik entspringt. Der Ansatz soll zu einem besseren Verständnis der Grundenergie von quantenmechanischen Systemen beitragen. „Es gibt in Quantensystemen eine Art von Bewegungsenergie, die aus der Unbestimmtheit resultiert“, so Hall.74 Eine wichtige Folgerung aus der Heisenbergschen Unschärferelation ist, dass physikalische Systeme auch am absoluten Nullpunkt der Temperatur nicht in Ruhe sind und daher eine von Null verschiedene kinetische Energie haben, die sog. Nullpunktsschwingung (Robert Knobel und Andrew Cleland versuchen diese direkt zu messen 2004). Die entsprechenden Schwankungen vereinfachen manche Probleme. So entschärfen die Schwingungen der kinetischen Energie (Nullpunktenergie) die Singularitäten der Coulombpotentiale, so dass das in der klassischen Mechanik so lästige Problem der Zusammenstoßbahnen wegfällt.75 Auch zwischen Energie und Zeit besteht eine Unbestimmtheitsrelation, die z. B. für die natürliche Breite der Spektrallinien verantwortlich ist. In der klassischen Wellenlehre besteht ebenfalls eine der Heisenbergschen analoge „Unschärferelation“. Für Wellenzüge endlicher Länge wird die Ungenauigkeit der Wellenlängenmessung umso größer, je kleiner die Länge ist.76 26 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle 5 Von Maxwell über Dirac zur Quantenelektrodynamik Es ist nun wichtig, die mathematische Beschreibung des gesamten elektromagnetischen Feldes zu kennen, das sind die Formeln der Quantenelektrodynamik. Allgemein kann man feststellen, dass ein Paradigmenwechsel in der Theoretischen Physik häufig eine neue mathematische Arena erfordert: Newtons Mechanik und Gravitationstheorie, die Differentialrechnung, Maxwellsche Elektrodynamik partielle Differentialgleichungen und die Analysis; Einsteins Allgemeine Relativitätstheorie benötigt die Differentialgeometrie und die Quantenmechanik Hilberträume und Operatoralgebra.77 Die Grundgleichungen der Quantenelektrodynamik sind die kovarianten Maxwellgleichungen zusammen mit der Diracgleichung für ein relativistisch bewegtes Elektron in allgemeinen Koordinaten (kovariante Ableitung). Die Diracgleichung beschreibt die Bewegung eines relativistischen Elektrons. Das Vektorpotential geht dann in das Viererpotential des elektromagnetischen Feldes über.78 Die Diracgleichung ergibt sich durch Quantisierung der klassischen Energierelation (erste Quantisierung). Das Prinzip der lokalen Eichinvarianz liefert die klassischen Feldgleichungen der Quantenelektrodynamik. Um das zugehörige Quantenfeld zu erhalten, das die Wechselwirkung zwischen Elektronen, Positronen (Antiteilchen zum Elektron) und Photonen (Quanten des elektromagnetischen Feldes) beschreibt, muss man die Feldgleichungen der Quantentheorie einem erneuten Quantisierungsprozess unterwerfen (zweite Quantisierung). Dafür wurde die Methode des Feynmanintegrals (Im Unterschied zur Schrödingergleichung, die eine grobe Statisik darstellt, beschreibt das Feynmanintegral die Feinstruktur von Quantenprozessen) entwickelt, die sich auf alle Feldtheorien universell anwenden lässt und im Wesentlichen von dem Stromterm bestimmt wird. Die analytischen Manipulationen mit dem Feynmanintegal führen zu einer Störungstheorie, für deren Berechnung eine geometrische Sprache entwickelt wurde – die Sprache der Feynmandiagramme. Diese Diagramme erlauben erstens eine direkte physikalische Interpretation und zweitens eine bequeme Berechnung physikalischer Effekte (z. B. Streuprozesse in Teilchenbeschleunigern). Die Berechnung der Feynmangraphen führt in höherer Störungsordnung zu Ausdrücken, die unendlich werden. Die Physiker haben eine raffinierte Methode entwickelt, um derartigen sinnlosen Ausdrücken doch einen Sinn zu geben. Das ist die Methode der Renormierung. In der Quantenelektrodynamik kann man damit in jeder Störungsordnung die Divergenzen beseitigen, d. h. die Quantenelektrodynamik ist „renormierbar“. Im Gegensatz dazu ist die Allgemeine Relativitätstheorie nicht „renormierbar“. In der Sprache der Feynmangraphen bedeutet dies, dass die ursprünglichen Graphen um Zusatzglieder ergänzt werden, die die Konvergenz von gewissen Integralen erzwingen. Es werden nur solche Quantenfeldtheorien akzeptiert die renormierbar sind. Bis zum heutigen Tag fehlt eine mathematisch strenge Quantenfeldtheorie für realistische Situationen. Trotzdem berechnen die Physiker mit ihren vom mathematischen Standpunkt aus sehr zweifelhaften Methoden physikalische Effekte mit größter Präzision (wie auch auf anderen Gebieten der klassischen Feldtheorie, z. B. der Randwertprobleme mit ihren Or- thogonalentwicklungen oder der von uns entwickelten erweiterten Ersatzladungsmethode). Es bleibt die Aufgabe der Mathematiker, diese erstaunliche Tatsache zu begründen, parallel zur mathematischen Begründung der Diracschen Delta-Funktion durch die Distributionentheorie.79 5.1 Das elektrostatische Feld – quantentheoretisch betrachtet Zum Schluss wollen wir nochmals auf das Coulombsche Gesetz zurückkommen und uns fragen, woraus besteht eigentlich (quantentheoretisch) sein elektrostatisches Feld? Für zeitlich veränderliche Felder sind es reale Photonen, die von den sich bewegenden Ladungen ausgesandt werden. Bei nicht bewegter Ladung (Punktladung) sind es virtuelle Photonen, was heißt das nun aber? Das Coulombsche Gesetz gilt in der einfachen Form exakt nur für Punkladungen und für kugelförmige Körper, die homogen geladen sind. Für Ladungen mit beliebiger Gestalt treten Abweichungen auf. Man sollte sich dennoch wundern – und einige Studenten tun das auch – über die Abhängigkeit der Coulombkraft als reziprokes Abstandsquadrat. Dieses spezielle Kraftgesetz hängt damit zusammen, dass die durch die Ladung ausgetauschten Photonen die Ruhemasse Null haben. Sie können dann nach der Heisenbergschen Unschärferelation virtuell mit großer Reichweite erzeugt werden. Die Zeitunschärfe (proportional zur reziproken Energieunschärfe) ist in diesem Fall die Lebensdauer des virtuellen Teilchens mit der Ruhemasse, bzw. der Energieunschärfe (proportional der Masse mal dem Quadrat der Lichtgeschwindigkeit in eV). Das macht die Langreichweitigkeit der Coulombkraft verständlich. Hätte das Photon eine Ruhemasse, dann müsste das Coulombsche Potential vom Yukawa-Typ sein mit der so genannten Comptonwellenlänge, die proportional der reziproken Ruhemasse ist. Die besten heutigen Präzisionsmessungen ergeben eine Photonenmasse kleiner 10-48g oder 5·10-16 eV.80 Die zeitunabhängige Lösung der Klein-Gorden-Gleichung kann also als das statische Potential des Feldes einer Punktladung, dargestellt durch die Austauschteilchen, interpretiert werden.81 Zur Einordnung der Klein-Gorden-Gleichung, der Diracgleichung sowie der d’Alembertschen Wellengleichung in ein formales Gleichungsschema sei angemerkt: ● Die ersten beiden quantenmechanischen Feldgleichungen ergeben sich als Grenzfälle einer allgemeinen Spinorgleichung. Als wichtiger relativistischer Grenzfall der spinlosen, massebehafteten Klein-Gorden-Gleichung ist die d’Alembertsche Wellengleichung zu nennen, wenn Teilchen mit einer verschwindenden Ruhemasse betrachtet werden. Im nichtrelativistischen Grenzfall kann die spinund massebehaftete Dirac-Gleichung in die Pauli-Gleichung überführt werden, welche unter Vernachlässigung, insbesondere der Spin-Teilcheneigenschaft, in die Schrödingergleichung übergeht.82 Im Zusammenhang mit der elektrischen Ladung stoßen wir hier noch auf einen interessanten Effekt: Bekanntlich ist die Dielektrizitätskonstante ein Maß dafür, wie leicht sich die betreffende Substanz polarisieren lässt. Den tatsächlichen Wert der Ladung kann man nur messen, wenn man der Ladung selber sehr nahe kommt, näher als das 27 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle nächste Molekühl, so dass keine Abschirmung mehr auftritt, d.h. näher also als der Gleichgewichtsabstand der Moleküle. In der Quantenelektrodynamik führt die Erzeugung und Absorption virtueller Photonen dazu, dass sich das Vakuum wie ein Dielektrikum verhält. Die Ladung emittiert und absorbiert ständig virtuelle Photonen. Gelegentlich entsteht aus einem solchen Photon ein Elektron-Positronen-Paar, das nachfolgend annihiliert. Das virtuelle Elektron und das virtuelle Positron werden von der Ladung angezogen bzw. abgestoßen; so kommt es zur Polarisation des Vakuums und folglich zur teilweisen Abschirmung der Ladung, analog zur Einbettung einer Ladung in ein Dielektrikum. Den vollen Wert der Ladung beobachtet man wieder nur dann, wenn man sich innerhalb der Abschirmung befindet. Die Rolle des Gleichgewichtsabstands übernimmt bei der Vakuumpolarisation die Compton-Wellenlänge des Elektrons (2,43 mal 10-12 m). Selbst im Vakuum erhält man also nur dann den tatsächlichen Wert der Ladung, wenn man ihr näher kommt als diese Wellenlänge. Unser Messwert, den wir als „Ladung des Elektrons“ bezeichnen, ist in Wirklichkeit die voll abgeschirmte effektive Ladung. Die Sommerfeldsche Feinstrukturkonstante, die proportional zum Quadrat der elektrischen Ladung ist, nimmt also bei sehr kleinen Abständen von der Ladung zu, ist also in Wirklichkeit überhaupt nicht konstant.83 Nun ist es nicht so, dass elektrostatische Ladungen in der Praxis keine Rolle spielen, im Gegenteil, seit es gelungen ist, die Oberfläche von Kondensatoren nach den Regeln der fraktalen Geometrie um einen Faktor von mehreren Zehntausend zu steigern, sollen sie Anwendung bei Brennstoffzellen- oder Hybridautos als Pufferspeicher finden. Möglich wurde dies durch winzige Kohlenstoffpartikel mit einer sehr fein strukturierten, dreidimensionalen Oberfläche. Pro Gramm des Materials sind so Oberflächen von etwa 200 Quadratmetern und damit eine extrem hohe Kapazität möglich. Die aus solchen Materialen entwickelten „Supercaps“ wiegen 320 Gramm und können eine Energie von 1,4 Wattstunden speichern. Mit einem 50 Kilogramm schweren Satz aus 160 solchen Hochleistungskondensatoren lassen sich daher die für den Betrieb eines Fahrzeugs erforderlichen 220 Wattstunden erreichen. Vorteil ist eine praktisch unbegrenzte Lebensdauer bei niedrigem Gewicht. Mit herkömmlichen Elektrolyt-Kondensatoren würde dieser Speicher vier Tonnen wiegen. Zweitausendundvier geht in der Schweiz der erste Elektrokleinbus nur mit „Supercaps“ in Betrieb.84 5.2 Alltagsanwendung der Quantenelektrodynamik Die praktische Anwendung ist so vielfältig, dass wir nur zwei Alltagsbereiche anschneiden wollen, nämlich den medizintechnischen der Diagnostik und Therapie sowie die Lichterzeugung durch Licht emittierende Dioden (LED). Die normale Röntgen- und Computer-Tomographie Technik (CT) die mit Röntgenquanten (Photonen) arbeitet, kennt jeder. Bei der Magnetresonanz-Tomographie (MRT) werden auf besonders raffinierte Art Experimente mit Atomkernen gemacht, die im menschlichen Körper vorkommen. Meisten arbeitet man mit den Wasserstoffkernen – einfachen Protonen – und nutzt dabei die Tatsache, dass die Protonen ei- nen Spin haben und sich damit wie magnetische Kreisel verhalten. Diese Kreisel führen in einem starken äußeren Magnetfeld eine Präzessionsbewegung aus. Durch Einstrahlen kurzer Pulse von elektromagnetischen Wellen im Frequenzbereich der Radiowellen erreicht man, dass die Kerne für kurze Zeit selber zum Sender von Radiowellen werden. Die Radiowellen werden gemessen und die Messdaten mit einem Computer ausgewertet. So entstehen Bilder vom Inneren des Menschen.85 Viele Phänomene der magnetischen Kernresonanz lassen sich nur aufgrund quantenmechanischer Modelle erklären. Insbesondere ist eine umfassende Interpretation von Kernresonanzspektren nur mit quantentheoretischen Grundlagen möglich.86 Die planare Sintigraphie der Singel-Photon-Emissions-Computer-Tomography (SPECT) bzw. der Positronen-Emissions-Tomographie (PET) sind Tracer-Methoden, hierbei werden dem Patienten Chemikalien verabreicht, die radioaktiv markiert sind, und zwar beim PET mit einem Positronenstrahler. Nach dem Zerfall des Kernes werden die aus den vom Patienten emittierten Photonen (Vernichtungsstrahlung) zweidimensionale „Bilder“ erzeugt. Dabei vernichten sich Elektronen und Positronen (Antiteilchen des Elektrons) nach den Regeln der Quantenelektrodynamik und senden zwei Gamma-Strahlung aus. Diese laufen wegen der Energie-Impuls-Erhaltung in entgegengesetzter Richtung. Diese wird durch ihren koinzidenten Nachweis festgelegt. Die Messung vieler Koinzidenzen erlaubt rückwärts den Schluss auf den Ort, wo sich die Substanz mit dem Tracer befunden hat. Es lässt sich die zeitliche Wanderung des Tracers im Körper messen. Durch Vergleich mit Prozessmodellen können die physiologischen Parameter, z.B. der Stoffwechsel bestimmt werden.87 Die Photodynamische Diagnostik arbeit im Bereich des sichtbaren Lichtes, die Infrarotdiagnostik im Bereich der Wärmestrahlung und in der Forschung ist die Terahertz-Diagnostik, sie liegt im elektromagnetischen Spektrum zwischen Mikrowellen- und Infrarotstrahlung. Es ist wenig bekannt, dass jeder Körper Terahertzwellen abstrahlt, und bei Bestrahlung mit künstlichen Terahertzwellen lässt sich aus den Reflektionen ebenfalls ein Bild gewinnen.88 Bei der Therapie kommen Röntgenstrahlen (Photonen), Protonen, Neutronen, Schwerionen und noch in der Forschung Antimaterie zum Einsatz. Alle diese Verfahren treiben die Zelle in den Selbstmord durch Zerstörung der DNA. Die Licht emittierende Diode ist eine in Durchlassrichtung gepolte pnDiode, bei der Elektron-Loch-Paare bei ihrer Rekombination Photonen einer bestimmten, vom der exakten Materialzusammensetzung abhängigen Farbe aussenden.89 Wegen ihres hohen Wirkungsgrades, theoretisch nahezu hundert Prozent, eignet sie sich hervorragend für Beleuchtungszwecke. In der Praxis haben die Entwickler eine solche Perfektion zwar noch längst nicht bewerkstelligt. Aber der Wirkungsgrad der besten momentan erhältlichen weißen LEDs liegt immerhin schon zwischen dem Wirkungsgrad von Glühbirnen und Leuchtstoffröhren. Farbige LEDs haben einen wesentlich höheren Wirkungsgrad und werden bereits vielfach angewendet. Zum Beispiel in Ampelanlagen, wo man von 150 W auf 15 W und von einem Jahr auf fünf Jahre Lebensdauer kommt. Der kalifornische Bundesstaat hat damit seine Stromrechnung um mindestens zehn Millionen Dollar gesenkt. 28 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle Die neue Lichttechnologie würde also den Energiebedarf drastisch reduzieren. Nach einer Studie des amerikanischen Energieministeriums könnte ein breiter Einsatz weißer LEDs der nächsten Generation den Energiebedarf bis 2025 weltweit um etwa zehn Prozent senken. Das käme einer Einsparung von rund 100 Milliarden Dollar gleich und könnte Ausgaben von ungefähr 50 Milliarden Dollar für den Bau von Kraftwerken überflüssig machen.90 6 Von Maxwell über Einsteins Allgemeine Relativitätstheorie zu den Einstein-Maxwell-Feldgleichungen Bei den Einstein-Maxwellschen-Feldgleichungen (Geometrodynamik) muss man leider sagen, dass es sich nur um eine mathematische Zusammenfassung handelt, d.h. es ist nicht möglich, sie aus einem einheitlichen Wirkprinzip herzuleiten (weder die Rainiche-Gleichung alleine noch mit den Nebenbedingungen).91 In der Sprache der Elementarteilchenphysik würde man sagen, es ist nicht gelungen, die elektromagnetische Wechselwirkung und die Gravitation als Facetten einer einzigen übergeordneten Wechselwirkung zu beschreiben.92 Dieses versuchte Kaluza durch Einführung einer fünften Dimension (geometrisch vierte Dimension, deren Krümmung das elektromagnetische Feld darstellt).93 Trotzdem bilden die Überlegungen von Kaluza und Klein mit einen Ausgangspunkt für die Stringtheorie, welche ihrerseits wieder aus der Eulerschen Beta-Funktion geboren wurde – aber, das ist eine andere Geschichte.94 7 Von der Theoretischen Elektrotechnik über die Prozessmodelle zu den Vereinheitlichungen Wie sie sicherlich bemerkt haben, kommt in der Bezeichnung des Lehrstuhls der Begriff Prozessmodelle vor. Diesen Zusammenhang wollen wir jetzt etwas näher betrachten. Technologie sei doch nichts anderes als Technik, glauben manche – Falsch. Technologie ist mehr als Technik. Technologie ist – siehe Enzyklopedia Britannica – die Anwendung von wissenschaftlichem Wissen für praktische Zwecke. Anders ausgedrückt: Technik ist was für Ingenieure, Technologie geht uns alle an. Technik lehrt uns zum Beispiel, wie ein Verbrennungsmotor funktioniert. Automobil-Technologie hat die Welt verändert. Um den Unterschied zu begreifen, braucht es historische Zusammenhänge. Zunächst mal: Technik ist älter als die Naturwissenschaft. Brücken wurden schon gebaut, ehe die Gesetze der Statik bekannt waren. Erst im 17. Jahrhundert versuchte Francis Bacon, Wissenschaft und Technik zusammenzubringen. Die experimentelle Naturwissenschaft sah er als ein „Mittel, um die Herrschaft des Menschen über die Natur auszudehnen“. Doch Bacons Prinzipien fielen nicht gleich auf fruchtbaren Boden. Lange Zeit arbeiteten die Ingenieure ohne naturwissenschaftliche Grundlagen. Erst im 19. Jahrhundert wuchsen Naturwissenschaft und Technik zu „Technologie“ zusammen. Technologie ist auf Anwendung gerichtet – auf die Gestaltung der menschlichen Welt. Das Internet zum Beispiel ist mehr als das Übertragungsprotokoll, auf dem es beruht. Es schuf Möglichkeiten – eine neue Form der Kommunikation und neue Geschäftsmodelle. Doch Innovation braucht auch den Freiraum reiner von kommerziellen Interessen unbelasteter Wissenschaft, da die Entwicklung von Technologie das tiefe Verständnis der zugrunde liegenden Naturgesetze voraussetzt. Ein Beispiel ist die Fusionsreaktortechnologie, die eigentlich noch gar keine Technologie ist, sondern vorläufig noch ein interdisziplinäres Forschungsprojekt. Bevor man Energie aus einem Fusionsreaktor gewinnen kann, müssten Forscher erst mal herausfinden, ob die Gesetze der Physik den Bau eines entsprechenden Reaktors erlauben.95 Dieses tiefe Verständnis96 der Naturgesetze drückt sich in ihrer mathematischen Beschreibung, also in der Sprache der Formeln aus. Man muss also einen mathematischen Formalismus entwickeln, der alle bekannten (gewünschten) Prinzipien in sich vereinigt. Es entsteht ein Prozessmodell, d. h. die Modellierung eines realen Prozesses in der Sprache der Mathematik. Wobei man unter einem Prozess einen Vorgang versteht, bei dem sich der Wert einer oder mehrere Kenngrößen verändert.97 7.1 Von der physikalisch mathematischen Beschreibung zum allgemeinen Prozessmodell Das allgemeine Prozessmodell eines Systems ist ein Objekt, welches dem Beobachter erlaubt, ihn interessierende Fragen zu dem System mit Hilfe dieses Objektes zu beantworten. Es ist ein Abbild der zeitlichen Aufeinanderfolge von Zuständen und Zustandsübergängen eines Systems. Ein allgemeines Prozessmodell ist ein Mittel zur möglichst vollständigen Beschreibung der erfahrenen (auch durch Experimente) Realität. Ein eingeschränktes Prozessmodell ist ein Modell mit geringem Detaillierungsgrad, das nur innerhalb der Grenzen der Prozessparameter die für einen bestimmten Anwendungszweck wichtigen Eigenschaften hinreichend genau wiedergibt.98 Das beste Beispiel für ein möglich allgemeines Prozessmodell ist heute das Standardmodell der Teilchenphysik: Die Partikel im Standardmodell reichen aus, die Alltagswelt – außer der Gravitation – und fast alle von Teilchenphysikern gesammelten Daten zu beschreiben. Das Standardmodell beschreibt die fundamentalen Teilchen und die Art ihrer Wechselwirkungen. Für ein komplettes Bild müssen wir auch die Regeln kennen, mit denen sich das Ergebnis einer Wechselwirkung berechnen lässt. Nehmen wir als Beispiel das Coulombsche Gesetz über die Kraft zweier Punktladungen. Selbst wenn man alles über die Teilchen und die auf sie wirkenden Kräfte weiß, kann man das Verhalten der Teilchen nur berechnen, wenn man außerdem die Regel, d. h. das Coulombsche Gesetz, kennt. Die moderne Version der Regeln ist die relativistische Quantenfeldtheorie, die in der ersten Hälfte des 20. Jahrhunderts entwickelt wurde. In der zweiten Hälfte des 20. Jahrhunderts entstand das Standardmodell; es gab Auskunft über die Teilchen und Wechselwirkungen – sozusagen die Mitspieler, die nach den Regeln der Quantenfeldtheorie spielen.99 29 Theoretische Elektrotechnik – gestern – heute – morgen Arnim Nethe, Hanns-Dietrich Stahlmann Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle Als größtmögliches allgemeines Prozessmodell ist heute die Vereinheitlichung von Gravitation und Quantentheorie anzusehen. 7.2 Vom allgemeinen zum eingeschränkten Prozessmodell100 Beispiel für ein eingeschränktes Prozessmodell ist die Bewegung eines Elektrons im Coulombfeld eines Kerns. Fügt man noch ein Elektron hinzu, wie etwa im Helium-Atom, so stört die Abstoßung der Elektronen die Lösbarkeit des Problems. Um uns über deren Auswirkung zu orientieren, versuchen wir eine möglichst einfache Annahme (eingeschränktes Prozessmodell). Nachdem das Elektron nicht streng lokalisiert sein kann, stellen wir uns vor, seine Ladung erfüllt homogen eine Kugel. Eine solche Ladungswolke erzeugt ein elektrostatisches Potential. Ist das zweite Elektron ebenfalls eine homogen geladene Kugel, so erfahren die Elektronen eine Abstoßung. Die Gesamtenergie wird damit die kinetische Energie plus Kernenergie plus Elektronenabstoßung. Trotz so einer primitiven Abschätzung kommen die so ermittelten Ergebnisse dem experimentellen Resultat recht nahe.101 Betrachten wir schließlich noch das H2-Molekül und nehmen wir das H-Atom wieder als Kugel an. Überlappen sie sich nicht, dann ist die elektrostatische Energie zweimal derjenigen eines HAtoms, und sie üben keine Kräfte aufeinander aus. Durchdringen sich die Kugeln, so sinkt zunächst die Energie, da sich die Abstoßung der Elektronen vermindert, während die anderen Verhältnisse gleich bleiben. Um zu sehen, wie viel Energie man gewinnen kann, bringen wir die Kugeln zur Überdeckung und setzen die Protonen diametral zueinander vom Zentrum. Die Abstoßung der Elektronen ist wie beim HeAtom, damit ergibt sich die gesamte potentielle Energie. Der entsprechende Protonenabstand stimmt ausgezeichnet mit dem tatsächlichen Abstand überein. Dementsprechend ist die resultierende Bindungsenergie ziemlich nahe an der gemessenen Dissoziationsenergie. Wesentlich ist dabei, dass die Elektronen antiparallele Spins haben, damit durch das Ausschließungsprinzip ihr Lebensraum nicht beschnitten wird. Diese rohen Überlegungen zeigen, dass es bei delikateren Fragen wie Stabilitätsproblemen auf kleinere Differenzen der Energie ankommt.102 fende Theorien, können in allen Bereichen stattfinden, so konnten wir zeigen, dass die Ersatzladungs- und die Ersatzstromtheorie in der Magnetostatik aus der Ampereschen Molekularstromtheorie ableitbar ist.105 Bei vielen Prozessmodellen treten aufgrund starker Vereinfachungen zur Bestimmung von Prozessgrößen singuläre Gleichungssysteme auf, welche mit herkömmlichen Mitteln naturgemäß nicht lösbar sind. Hat man es nun mit einer Klasse von Gleichungssystemen zu tun, die durch Orthogonalentwicklung an den Randgebieten zweier Bereiche mit unterschiedlichen Bedingungen entstehen, führt man Zwischenbereiche endlicher Größe ein und umgeht so dieses Problem. Durch die Anwendung solcher Verfahren werden allerdings größere Gleichungssysteme erzeugt und der Rechenaufwand erheblich erhöht. Ein Ausweg ist das von uns modifizierte Moore-Penrose-Verfahren zur Lösung singulärer Gleichungssysteme am Beispiel des Prozessmodells einer Hohlleiterblende.106 Zurzeit arbeiten wir mit anderen Wissenschaftlern zusammen an einem feldtheoretischen Lösungsansatz für ein Prozessmodell zur Beschreibung der inneren Struktur der Materiefeldquanten und deren Masse. 8 Literatur Zum vertiefenden Nachlesen der teilweise überarbeiteten Zitate finden Sie die detaillierten Literaturstellen im Internet auf den Web-Seiten der BTU-Cottbus unter: http://www.tu-cottbus.de/BTU/BTU-Typo3.7/ Forum_der_Forschung.693.0.html Apl. Prof. Dr.-Ing. habil. Arnim Nethe, Jahrgang 1963, studierte an der TU Berlin Elektrotechnik, nach seiner Promotion kam er an die BTU Cottbus, wo er 1998 im Fach Theoretische Elektrotechnik habilitierte. Er ist designierter Studiengangsleiter für den zukünftigen Studiengang Biomedizinische Gerätetechnik. Die Qualität eines allgemeinen Prozessmodells misst sich daran, inwieweit es in der Lage ist, die Beobachtungsdaten zu komprimieren, das heißt durch eine wesentlich kleinere Menge von theoretischen Voraussetzungen und Deduktionsregeln zu ersetzen, aus denen die Daten rekonstruierbar sind. Unter mehreren Theorien, die dasselbe leisten (auch in Bezug auf Voraussagen), ist stets die einfachste vorzuziehen.103 Prof. Dr.-Ing. habil. Hanns-Dietrich Stahlmann, Jahrgang 1948, studierte an der TU Berlin Elektrotechnik, nach seiner Promotion und Habilitation leitete er die Abteilung Prozessmodelle am IPK Berlin der Fraunhofer Gesellschaft. Seit 1992 leitet er den Lehrstuhl Theoretische Elektrotechnik und Prozessmodelle an der BTU Cottbus. Fazit am Beispiel eigener Arbeiten: Das Sammeln von Daten ohne verbindendes Prozessmodell nutzt gar nichts. Das haben wir selbst erfahren müssen, als wir im Auftrag der Automobilindustrie den Lackiervorgang von Freiformflächen mathematisch erfassen sollten. Tausende von Messdaten haben uns erst dann etwas genutzt, als wir erkannten, dass der zugrunde liegende Prozess durch die Diffusionsgleichung beschrieben wurde.104 Anderseits konnten wir das bis dahin unlösbare räumliche Problem des elektrostatischen Lackierens durch die von uns renommierte Ersatzladungsmethode auf das Blech, d. h. auf eine Freiformfläche mit Feldumgriff, übertragen und so einer Berechnung zugänglich machen. Vereinheitlichungen, d. h. bis dahin getrennt lau- 30