Physik in unserer Zeit 5/2013

Werbung
44. Jahrgang September 2013 ISSN 0031-9252 PHUZAH D 4787
5 l 2013
TEILCHENPHYSIK
TECHNISCHE PHYSIK MEDIZINPHYSIK
Higgs-Mechanismus
Gedruckte Elektronik
Photoakustik
PHYSIK
IN UNSERER ZEIT
www.phiuz.de
SPORTPHYSIK:
ROTATIONEN
Werbung
E D I TO R I A L
Arnulf Oppelt arbeitete bei Siemens in der
Medizintechnik, unter
anderem an MRT,
Biomagnetismus und
Mammographie mit
Licht. Seit 2004 ist
er im Ruhestand, verfolgt aber neueste
Entwicklungen.
Mehr Licht!
eder hat schon einmal die eingeschaltete Taschenlampe
mit der Hand abgedeckt und festgestellt, dass sichtbares
Licht durchaus menschliches Gewebe durchdringt. Schon
vor der Entdeckung der Röntgenstrahlung wurde versucht,
mit Licht in den menschlichen Körper hineinzuleuchten –
zum Beispiel bei der Untersuchung des Kehlkopfes. Mit
dieser Diaphanoskopie wird heute noch untersucht, ob die
Nasennebenhöhlen verstopft sind.
J
impuls von einer chemischen Verbindung absorbiert wird.
Man nutzt also die Eigenschaften zweier Felder zur Bildgebung: Licht definierter Wellenlänge, um gezielt eine Molekülart zu adressieren, und Schall, um den Ort der Moleküle
nachzuweisen. Beeindruckende Bilder der Kapillargefäße
unter der Haut und von kleinen Tieren wurden so erzielt.
igentlich ist diese Methode ein weiteres Beispiel für den
von Paul Christian Lauterbur geprägten Begriff Zeugmatographie für „das, was zusammenführt“ (aus dem Altine breite Anwendung von Licht in der medizinischen
griechischen). Dieser Begriff konnte sich nicht durchsetBildgebung existiert jedoch nicht, dabei ist seine Wechzen, weil er etwas kryptisch ist. Lauselwirkung mit Gewebe durchaus atterbur benutzte ihn für die Magnetretraktiv. Beispielsweise kann man spekIN GEWEBE VERLIERT
sonanztomographie (MRT), für deren
troskopisch gezielt chemische VerbinLICHT DIE RICHTUNG
Erfindung er 2003 den Medizin-Nodungen nachweisen. In Gewebe lassen
belpreis erhielt. Dabei ermöglichen
sich im Wesentlichen vier Absorptiein Hochfrequenz- und ein Magnetfeld
onsbanden identifizieren: Im nahen Indie Bildgebung über den Effekt der
frarot absorbieren reduziertes HämoKernspinresonanz, in der photoakustischen Tomographie
globin bei 760 nm und oxidiertes Hämoglobin bei 840 nm,
sind es das Licht- und das Schallfeld, die „zusammenfühbei 930 nm beobachtet man Schwingungen der Methylenren“.
gruppen von Fettsäuren und bei 975 nm Schwingungen der
OH-Gruppen von Wasser. Durch Messung der Absorption
bei 760 nm und 840 nm kann man also Aussagen zur Durchrotz der bereits vorliegenden Aufnahmen von Blutgeblutung und Sauerstoffversorgung gewinnen.
fäßen unter der Haut mit photoakustischer Tomographie bedarf die Anwendung am Patienten den Nachweis
tiefer liegender Strukturen. Dazu zählen Tumore in der weibas Problem ist jedoch, dass sich Licht im Gewebe nicht
lichen Brust. Die gut eingeführten Verfahren Röntgen, Ulgeradlinig ausbreitet, sondern stark gestreut wird.
traschall und Magnetresonanztomographie sind hier der
Scharf abbilden kann man nur Gewebeveränderungen, die
Goldstandard. Ein konkurrierendes Verfahren muss mögdicht an der Oberfläche liegen. Moderne Technik eröffnet
lichst gleiche oder bessere diagnostizierbare Ergebnisse liejedoch Möglichkeiten, den Effekt der Lichtstreuung im Gefern und kostengünstiger sein. Allein als Ergänzung verlänwebe wirksam zu kompensieren. Am Austrittspunkt von
gert es nur die Untersuchungszeit und erhöht den AufLicht, das zuvor in Gewebe eingestrahlt wurde, haben die
wand – das ist aber selten gerechtfertigt.
Photonen, die auf dem direkten Weg dorthin gelangen, eine
kürzere Laufzeit als die gestreuten. Tastet man also ein Objekt mit Lichtimpulsen ab und misst allein den Anfang des
m Hinblick auf die photoakustische Tomographie sollte
empfangenen Impulses, dann weist man nur die wenig geman sich auch der grundsätzlichen Einschränkungen bestreuten (ballistischen) Photonen nach. So kann man tiefer
wusst sein: Licht wird nun einmal im Gewebe gestreut, in
gelegene Strukturen darstellen. Doch trotz des immensen
der Tiefe verteilt sich die eingestrahlte Intensität also auf
technischen Aufwands – es sind Zeitfenster von einigen zig
einen großen Bereich. Ob es dann trotzdem gelingt, tief
Picosekunden erforderlich – versagt das Verfahren bei diliegende Strukturen so stark anzuregen, dass ein nachweisckeren Gewebeschichten. Nach etlichen Zentimetern sind
bares Schallfeld entsteht, ist noch nicht gesichert. Man darf
nämlich sämtliche ballistischen Photonen durch Streuung
gespannt sein, ob das möglich wird.
verloren gegangen.
E
E
T
D
I
a ist die Nutzung des altbekannten photoakustischen
Effekts schon aussichtsreicher, den Günther Paltauf in
diesem Heft vorstellt. Die Ortsauflösung wird hier durch
das Schallfeld vermittelt, das sich ausbildet, wenn ein Licht-
D
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
211
I M PR E SS U M
|
PHYSIK
Verlag
WILEY-VCH Verlag GmbH & Co. KGaA Weinheim,
Boschstraße 12, Postfach 10 11 61,
69451 Weinheim;
Telefon +49 (0)62 01/6 06-0,
Telefax +49 (0)62 01/6 06-3 28
Redaktion
Dr. Thomas Bührke, Wiesenblättchen 12,
68723 Schwetzingen,
Telefon +49 (0)62 02/5 77 97 49
Roland Wengenmayr, Konrad-Glatt-Straße 17,
65929 Frankfurt/M., Telefon +49 (0)69/30 85 41 76
[email protected]
Kuratorium
Stefan Brönnimann, Bern
Silke Bühler-Paschen, Wien
Günter Lugert, Erlangen
Hinrich Meyer, Hamburg
Thomas Müller, Karlsruhe
Gerhard Rempe, Garching
Elke Scheer, Konstanz
Michael Vollmer, Brandenburg
Herstellung
Marita Beyer, Telefon +49 (0)62 01/6 06-2 68,
Telefax +49 (0)62 01/6 06-9 12 05.
Anzeigen:
Nicole Schramm, Telefon +49 (0)62 01/6 06-5 59,
Telefax +49 (0)62 01/6 06-5 50.
Abonnenten-Service:
Telefon: 0800/1800536 (innerhalb Deutschland),
+44 (0)1865476721 (außerhalb Deutschland)
E-Mail: [email protected]
Abonnementpreise
(inklusive Versand und MwSt.) für 12 Monate/
6 Hefte: Persönliche Bezieher: A 135,89, Studenten:
A 81,32 (print), A 80,92 (online), Institutionelle
Bezieher: A 285,69 (print), A 317,73 (online),
A 345,78 (print und online). Studentische Abonnenten werden gebeten, ihrer Bestellung eine Kopie der
Immatrikulationsbescheinigung beizulegen. Persönliche Abonnements dürfen nicht an Bibliotheken
verkauft oder als Bibliotheksexemplare benutzt
werden.
Abbestellungen nur bis spätestens 3 Monate vor
Ablauf des Bezugsjahres.
Satz:
TypoDesign Hecker, Leimen.
© WILEY-VCH Verlag GmbH & Co. KGaA Weinheim,
69451 Weinheim, 2013.
Printed in the Federal Republic of Germany.
ISSN 0031-9252
|
w w w. p h i u z . d e
EDITORIAL
|
211 Mehr Licht!
Arnulf Oppelt
TEILCHENPHYSIK
Phys. Unserer Zeit 5/2013 (44)
|
|
220 Wie Teilchen zu ihrer Masse
kommen
Robert Harlander
TECHNISCHE PHYSIK
|
228 Smart und flexibel
Henning Rost |Jürgen Krumm |Katrin Riethus |
Klaus Ludwig
220 Wie Teilchen zu ihrer Masse kommen
Mit der Entdeckung des Higgs-Teilchens
hat die Physik beim Verständnis der
Natur einen entscheidenden Schritt nach
vorne gemacht. Der bereits vor mehr als
40 Jahren vorgeschlagene Higgs-Mechanismus ist im Kern die Folge eines grundlegenden Symmetrieprinzips.
228 Smart und flexibel
Druck und Bindung:
ColorDruck, Leimen.
212
IN UNSERER ZEIT
Gedruckte Elektronik wird mit „elektronischen Tinten“ hergestellt. Diese Tinten werden durch Rolle-zu-Rolle-Druckverfahren
sehr präzise auf großflächige, flexible Substrate aufgebracht. Die günstige Elektronik
eröffnet neue Anwendungsfelder, die konventioneller Siliziumelektronik bisher nicht
oder nur eingeschränkt zugänglich waren.
|
I N H A LT
5|2013
T R E F F P U N K T FO R SC H U N G
SPORTPHYSIK
214 Wann ist Schrödingers Katze wirklich
tot?
215 Dreiwandige Kohlenstoff-Nanoröhren
atmen lassen
217 Kernstruktur von Exoten
218 Kein Hinweis auf Majorana-Teilchen
219 Der Berg ruft
219 Physics News
|
236 Die Sache mit dem Dreh
Sigrid Thaller | Leopold Mathelitsch
SPIELWIESE
M AG A Z I N
|
240 Manchmal hilft nur Trägheit
H. Joachim Schlichting | Christian Ucke
MEDIZINPHYSIK
|
244 Ultraschall aus Licht
Günther Paltauf
236 Die Sache mit dem Dreh
Perfekte Drehungen sind
beim Geräteturnen, Trampolin- und Turmspringen ein
Muss. Für manche Techniken liefern fallende Katzen
ein gutes Vorbild.
Foto: Fotolia.de, M. Webhofer
|
251
252
253
255
257
257
258
|
Das Splittern nach dem Schuss
Lehrerfortbildung
Smartphone als Geigerzähler
Bücher
„Wenige Freunde und wenig Vermögen“
Treffpunkt TV
Die inverse Mayo
244 Ultraschall aus Licht
Optische Bildgebung in der Medizin
ist wegen der starken Lichtstreuung in biologischem Gewebe meist
auf Körperoberflächen beschränkt.
Der photoakustische Effekt macht
tiefere Bereiche zugänglich, indem
er mit Licht dort über Absorption
Ultraschall erzeugt. Diese Methode
kann zum Beispiel Blutgefäße besser sichtbar machen als andere
bildgebende Verfahren.
240 Manchmal hilft nur Trägheit
Was auf den ersten Blick wie ein simples Geduldsspiel erscheint, ist in
Wirklichkeit ein raffiniertes physikalisches Spielzeug: die Kugelwippe.
Was mit Geduld nur sehr schwer zu erreichen ist, gelingt mit einem
physikalischen Trick.
5/2013 (44)
|
Phys. Unserer Zeit
|
213
T R E F F P U N K T FO R SC H U N G
Q UA N T E N PH YS I K
|
Wann ist Schrödingers Katze wirklich tot?
Moderne Experimente bestätigen die Gesetze der Quantenmechanik auf
immer größeren Skalen. Dabei stellt sich die Frage, wo der Übergang
vom quantenmechanischen zum klassischen Verhalten stattfindet und
ob das quantenmechanische Superpositionsprinzip seine Gültigkeit
verliert. Wir haben ein Maß vorgeschlagen, das es ermöglicht, unterschiedliche quantenmechanische Experimente danach zu bewerten, wie
sehr sie unser alltägliches, klassisches Weltbild in Frage stellen [1].
ABB. 1
M A K ROS KO PI Z I T Ä T
Werte des logarithmischen Makroskopizitätsmaßes µ für
eine Auswahl historischer Superpositionsexperimente mit
Neutronen, Atomen, Molekülen und Ringströmen [1].
Schrödingers Wellenmechanik hat
sich seit ihrer Entdeckung vor fast 90
Jahren zu einem überaus tragfähigen
Grundpfeiler der modernen Physik
entwickelt. Ursprünglich für die
Beschreibung der atomaren Welt
konzipiert, gibt es bisher keine
Indizien für die Grenzen ihrer Gültigkeit. Überlagerungen stationärer
Ringströme aus Billionen von Elektronen [2] in supraleitenden SQUIDs
sagt sie genauso glänzend vorher wie
Interferenzexperimente mit Molekülen aus Hunderten von Atomen [3].
Die Experimente werden aufwändiger und die Quantensysteme immer
„makroskopischer“. Womöglich
lassen sich bald sogar Superpositionen von schwingenden mikromechanischen Spiegeln oder das Wellenverhalten winziger Quarzkugeln beobachten [4, 5]. Was aber unterscheidet
214
Phys. Unserer Zeit
5/2013 (44)
einen makroskopischen von einem
mikroskopischen Quanteneffekt?
Die Schrödinger-Gleichung
beschreibt die Beugung am Doppelspalt für ein Neutron genau so wie
für ein großes Molekül – in beiden
Fällen interferiert ein Bewegungsfreiheitsgrad mit sich selbst, der Schwerpunkt. Macht also die Masse den
Unterschied oder die Zahl der über
beide Spalte verschränkten Elementarteilchen? Ist der Spaltabstand
entscheidend oder die Länge des
Interferometers?
Jeder dieser Aspekte scheint relevant zu sein, aber die Wahl des besten Größenkriteriums fällt schwer.
Wir schlagen ein universelles Kriterium vor, das den Grad der Makroskopizität daran bemisst, wie sehr die
Quantenmechanik auf die Probe
gestellt wird.
Im Grunde testet jedes Superpositionsexperiment die Gültigkeit der
Quantentheorie. Wenn im Doppelspaltversuch Interferenzstreifen mit
erwartet hohem Kontrast beobachtet
werden, bestätigt dies die Theorie.
Misst man mit großen Teilchen deutlich schwächere Streifen, so mag das
viele Ursachen haben. Einige davon
sind Alternativhypothesen, die besagen, dass die Gesetze der Quantenmechanik ab einer gewissen Größenordnung von den Gesetzen der
klassischen Physik abgelöst werden.
Das lässt sich etwa erreichen, indem
man die Schrödinger-Gleichung derart modifiziert, dass delokalisierte
Wellenfunktionen hinreichend großer Objekte spontan kollabieren [6].
Nobelpreisträger Anthony Leggett
spricht hier von Makrorealismus [7].
www.phiuz.de
Superpositionen würden demnach in
klassische Mischzustände zerfallen,
die nicht mehr interferenzfähig sind
und Newtons Bewegungsgleichungen folgen.
Jede makrorealistische Alternativhypothese stellt also einen Eingriff in
die Dynamik quantenmechanischer
Zustände dar. Die Schwere dieses
Eingriffs können wir beispielsweise
daran festmachen, nach welcher Zeit
τe Superpositionszustände eines
einzelnen Elektrons kollabieren
würden.
Unser Kriterium lautet nun: Ein
Quantenphänomen ist umso makroskopischer, je größer die Menge
makrorealistischer Hypothesen ist,
die durch seine Beobachtung im
Experiment falsifiziert werden. So
schneidet etwa der Doppelspaltversuch mit einem Elektron sehr
schlecht ab, weil er nur solche
(abwegigen) Möglichkeiten ausschließt, welche die Quantentheorie
bereits auf atomarer Ebene modifizeren und eine sehr kurze Kollapszeit
τe pro Elektron vorhersagen. Der
gleiche Versuch mit einem 40 nm
großen Quarzkügelchen [5], das aus
mehr als zwei Millionen Atomen
besteht, würde hingegen um Größenordnungen besser abschneiden.
Objektive Vergleiche lassen sich
anstellen, sobald man eine gemeinsame mathematische Form für die
Auswirkungen makrorealistischer
Modifikationen auf die Bewegung
von Quantenzuständen findet.
Wir stießen auf eine solche Form
über eine Reihe minimaler Konsistenz- und Symmetrieforderungen [1],
die jede hypothetische Modifikation
erfüllen sollte, um die Prinzipien der
nichtrelativistischen Physik nicht zu
stark zu beschädigen. Unsere Betrachtungen führen auf ein logarithmisches Maß µ, das die Makroskopizität eines quantenmechanischen
Experiments angibt und in das
Äquivalent eines einzelnen isolierten
Elektrons umrechnet. Damit lassen
sich Experimente miteinander vergleichen, wie in Abbildung 1 für
eine repräsentative Auswahl aufgetragen.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
T R E F F P U N K T FO R SC H U N G
Der Wert von 5,2, der im Jahr
2000 bei der Messung überlagerter
Ringströme [2] in SQUIDs erreicht
wurde, entspricht beispielsweise
dem Äquivalent eines Elektrons, das
für mehr als einen Tag in einem
Superpositionszustand gehalten
würde. Die höchste bisher erreichte
Makroskopizität liegt bei 12. Sie
wurde in Interferenz-Experimenten
mit alkylierten Fullerenmolekülen an
der Universität Wien aufgrund der
hohen Teilchenmasse erzielt [3].
Atomexperimente profitieren hingegen von langen Interferenzzeiten.
M AT E R I A L FO R S C H U N G
Mittlerweile gibt es zahlreiche
Vorschläge, die Makroskopizität deutlich zu steigern. Der erwähnte Doppelspaltversuch mit Quarzkügelchen
würde einen Wert über 20 erreichen,
was 1020 Sekunden Interferenzzeit
eines Elektrons entspräche – ein Vielfaches der Lebensdauer des Universums. Unsere Alltagswelt ist selbst davon weit entfernt. Könnte man eine
Katze für eine Sekunde in Superposition bringen, entspräche das einer
Makroskopizität von 57, äquivalent
einer Interferenzzeit eines Elektrons
von 1057 Sekunden, sprich dem
1040-fachen Weltalter.
|
Literatur
[1] S. Nimmrichter, K. Hornberger, Phys. Rev.
Lett. 2013, 110, 160403.
[2] J. Friedman et al., Nature 2000, 406, 43.
[3] K. Hornberger et al., Rev. Mod. Phys. 2012,
84, 157.
[4] W. Marshall et al., Phys. Rev. Lett. 2003,
91, 130401.
[5] O. Romero-Isart et al., Phys. Rev. Lett.
2011, 107, 020405.
[6] A. Bassi et al., Rev. Mod. Phys. 2013, 85,
471
[7] A. J. Leggett, J. Phys. Condens. Matter
2002, 14, R415.
Stefan Nimmrichter,
Klaus Hornberger,
Uni Duisburg-Essen
ABB. 1
NANORÖHREN
Dreiwandige Kohlenstoff-Nanoröhren
atmen lassen
Moderne Verfahren können gezielt kombiniert werden, um interessante
nanoskalige Materialien, wie dreiwandige Kohlenstoff-Nanoröhren,
herzustellen. Eine Forschungsgruppe am Massachusetts Institute of
Technology (MIT), an der Wissenschaftler der Universität Hamburg
beteiligt waren, hat solche Nanoröhren mit Lasern spektroskopisch
charakterisiert [1]. Ein spannender Aspekt dieser experimentellen Ergebnisse betrifft die Wechselwirkungen im Innern von mehrwandigen
Kohlenstoff-Nanoröhren.
Kohlenstoff-Nanoröhren besitzen
außergewöhnliche mechanische,
elektrische und thermische Eigenschaften und sind somit von großem
Interesse für zahlreiche interdisziplinäre Forschungsgebiete. Das breite
Anwendungsspektrum umfasst unter
anderem den Einsatz in Quanteninformationstechnologien, in der Medizintechnik und in modernen Kompositwerkstoffen für den Flugzeugbau [2].
Unter Kohlenstoff-Nanoröhren
versteht man einen oder mehrere
ineinander geschachtelte, konzentrische, molekulare Hohlzylinder. Die
einfachste Form ist die einwandige
Kohlenstoff-Nanoröhre (Single-Walled
Carbon Nanotube, SWCNT). Sie
besteht wie Graphen aus hexagonal
angeordneten Kohlenstoffatomen, die
durch kovalente Doppelbindungen
miteinander verbunden sind (Abbildung 1a). Der geometrische Typus
einer solchen SWCNT bestimmt ihre
elektronischen Transporteigenschaften: Nanoröhren mit ArmsesselStruktur sind metallisch leitend (M),
solche mit Zickzack-Struktur überwiegend halbleitend (S) [3].
Ein komplexeres System sind
doppelwandige Kohlenstoff-Nanoröhren (Double-Walled Carbon Nanotubes, DWCNTs). Sie bestehen aus
zwei durch Van-der-Waals-Kräfte
miteinander schwach wechselwirkende SWCNTs (Abbildung 1b) und
besitzen eine deutlich höhere mechanische Festigkeit und eine verbesserte thermische Stabilität als ihre
einwandigen Pendants [4]. Die
elektrische Leitfähigkeit gestaltet sich
bei DWCNTs allerdings deutlich
komplizierter, da hier vier verschie-
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Schematischer Querschnitt einer ein-, doppel- und dreiwandigen Kohlenstoff-Nanoröhre. Eine SWCNT ist je nach ihrer
geometrischen Struktur halbleitend (S) oder metallisch
leitend (M). Bei DWCNTs gibt es vier verschiedene Flavours
(innere@äußere Nanoröhre), die die Leitungseigenschaft des
Systems festlegen. Eine TWCNT ermöglicht es, die verschiedenen Wechselwirkungen im Detail zu erforschen [1].
dene Kombinationsmöglichkeiten
(Flavours) existieren und sich diese
grundlegend in ihren elektrischen
Eigenschaften sowie in ihrem Einfluss auf die systeminternen Schwingungsmoden unterscheiden. Ein
besseres Verständnis dieser flavourabhängigen Eigenschaften bei
DWCNTs könnte deren Verwen-
www.phiuz.de
4/2013 (44)
Phys. Unserer Zeit
215
T R E F F P U N K T FO R SC H U N G
dungsbereich deutlich erweitern.
Interessant wäre das zum Beispiel für
die Entwicklung von molekularen
Schaltkreisen, da sich diese aus
Nanoröhren-Transistoren aufbauen
lassen [4].
Um die Leitfähigkeit einer solchen DWCNT genauer studieren zu
können, ist es notwendig, sie von der
Wechselwirkung mit der Umgebung
zu isolieren. Zu diesem Zweck
wurden dreiwandige KohlenstoffNanoröhren (Triple-Walled Carbon
Nanotubes, TWCNTs) hergestellt [5],
bei denen die äußerste Röhre die
innere DWCNT von den Umgebungswechselwirkungen abschirmt (Abbildung 1c). Dadurch ist es möglich,
den Einfluss der schwachen Van-derWaals-Wechselwirkungen zwischen
den inneren beiden Nanoröhren
isoliert zu betrachten.
Die Charakterisierung dieser
TWCNTs erfolgt durch RamanSpektroskopie. Hierbei werden die
Kohlenstoffatome einer Nanoröhre
durch resonante Lasereinstrahlung zu
Schwingungen angeregt. Die kohärente Schwingung entlang des
Radius, die sogenannte radiale
Atmungsmode, ist die wichtigste
spektroskopische Signatur einer
Kohlenstoff-Nanoröhre. Mit ihrer
Kenntnis können viele relevante
Eigenschaften, wie der NanoröhrenDurchmesser, in Erfahrung gebracht
werden [3].
Einzelne TWCNTs wurden untersucht, indem man diese auf einem
Siliziumsubstrat präpariert hat. Mit
verschiedenen Lasern gelang es, die
zwei inneren Nanoröhren von fünf
einzelnen TWCNTs gezielt optisch
resonant anzuregen und die zugehörigen Flavours zu identifizieren
(Abbildung 2). Die Ergebnisse zeigen, dass die Van-der-Waals-Wechselwirkungen zwischen den beiden
inneren Nanoröhren nicht nur von
deren Abstand abhängen, sondern
darüber hinaus auch eine Flavourabhängigkeit besitzen: Die Van-derWaals-Wechselwirkung ist stärker,
wenn die innerste Nanoröhre halbleitend ist, als wenn diese metallisch
leitend ist. Im letzteren Fall sind die
216
Phys. Unserer Zeit
5/2013 (44)
ABB. 2
R A M A N - S PE K T R E N
,
,
,
,
,
,
,
,
/
Eine für Kohlenstoff-Nanoröhren einzigartige spektroskopische Signatur ist die
radiale Atmungsmode, deren Frequenz invers proportional zum Durchmesser
der Nanoröhre ist. Die Abbildung zeigt Raman-Spektren von fünf einzelnen TWCNTs
mit drei verschiedenen Flavours der inneren, isolierten DWCNTs [1].
Wechselwirkungen so schwach
ausgeprägt, dass man die innerste,
metallisch leitende Nanoröhre als
nahezu perfekt von ihrer Umgebung
isoliert betrachten kann.
Besonders interessant wird es
sein, den Herstellungsprozess der
Nanoröhren eingehender zu untersuchen und herauszufinden, wie man
die Van-der-Waals-Wechselwirkungen
zwischen den Nanoröhren minimieren kann. Der Fokus zukünftiger
Forschung wird auf einer genaueren
Charakterisierung dieses Abschirmungseffekts liegen. Für Anwendungen in der modernen Nanotechnologie könnte dieser Effekt von großer
Bedeutung sein, da er eine spezifischere Verwendung von DWCNTs
gewährleistet.
Die Initiative Wissenschaft in die
Schulen! (WiS) will Schülerinnen und
Schüler an Themen der aktuellen
Forschung heranführen. Hierfür stellt
sie Lehrern auf www.wissenschaftschulen.de Originalartikel aus
www.phiuz.de
Literatur
[1] T. Ch. Hirschmann et al., ACS Nano 2013,
7, 2381.
[2] R. H. Baughman et al., Science 2002, 297,
787.
[3] A. Jorio et al., Raman Spectroscopy in
Graphene Related Systems, Wiley-VCH,
Weinheim 2011.
[4] C. Shen et al., Nanoscale 2011, 3, 503.
[5] H. Muramatsu et al., Adv. Mater. 2011, 23,
1761.
Thomas Ch. Hirschmann, Kornelius
Nielsch, Uni Hamburg
Andreas Reichegger, Uni Heidelberg
Physik in unserer Zeit und anderen
Zeitschriften sowie zusätzliches, von
erfahrenen Didaktikern erstelltes
Unterrichtsmaterial kostenlos zur
Verfügung. Die Beiträge aus Physik
in unserer Zeit finden Sie auf
www.wissenschaft-schulen.de/
alias/physik-in-unserer-zeit/
1161208.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
T R E F F P U N K T FO R SC H U N G
K E R N PH YS I K
|
ABB. 1
I S O LT R A P
Kernstruktur von Exoten
Die Massen von Radionukliden sind wichtig, um Kernmodelle zu testen
oder astrophysikalische Fragestellungen, wie den Aufbau von Neutronensternen, zu beantworten. Aufgrund ihrer oft geringen Halbwertszeit
lassen sie sich jedoch nur schwer messen. Kürzlich gelang es der ISOLTRAP-Gruppe am Forschungszentrum CERN, die Massen von 54Ca und
82Zn mit hoher Genauigkeit zu bestimmen [1]. Damit erhält man Aufschluss über das Wirken von Dreikörperkräften innerhalb des Atomkerns sowie über die Elemententstehung in der Kruste von Neutronensternen.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Die radioaktiven Ionen erreichen zunächst eine lineare
Hochfrequenzfalle, in der sie gekühlt und gebündelt werden.
Anschließend gelangen sie in das Multireflexions-FlugzeitMassenspektrometer (MR-ToF MS), in dem die Ionen separiert
werden. Außerdem kann über die Flugzeit der Ionen auf das
Ladung-zu-Masse-Verhältnis geschlossen werden. Über die
erste Penning-Falle, in der die Ionen weiter abgekühlt werden
und eine weitere Separation möglich ist, erreichen die Ionen
die zweite Penning-Falle. In dieser lässt sich wiederum das
Ladung-zu-Masse-Verhältnis der Ionen bestimmen, indem
man die Zyklotronfrequenz ?, der um die Magnetfeldlinien
kreisenden Ionen, misst.
ABB. 2
N E U T RO N E N S T E R N
0m
56FE
62
64Ni
66
100m
86Kr
u
Kr
re
u
e
n
in
Kr
re
e
ß
äu
N≈50
st
K ern
e
R=10km
e
und 54Ca [1]. Allerdings schlossen die
geringe Produktionsrate sowie die
kurze Halbwertszeit (lediglich 90 ms
bei 54Ca) eine Messung in einer
Penning-Falle aus. Dafür wurde
erstmals eine neue ISOLTRAP-Komponente, das Multireflexions-FlugzeitMassenspektrometer [2], zur Bestimmung der Masse kurzlebiger Nuklide
eingesetzt (Abbildung 1). Damit
erzielten wir eine relative Unsicherheit im Bereich von 10–6.
Bei der Flugzeit-Massenspektrometrie erfahren alle Ionen in einem
elektrostatischen Feld die gleiche
Kraft und werden daher bei unterschiedlicher Masse auf verschiedene
Geschwindigkeiten beschleunigt.
Deswegen kommen sie nach Durchlaufen einer Driftstrecke nacheinander am Detektor an – die leichten
zuerst, die schweren später: Es
entsteht ein Flugzeit-Massenspektrum. Die Auflösung des Spektrums
ist durch die Länge der Driftstrecke
von etwa einem Meter begrenzt.
Indem die Teilchen zwischen zwei
elektrostatischen „Ionenspiegeln“ hin
und her reflektiert werden, verlängert sich die Driftstrecke auf mehrere
hundert Meter, ohne Vergrößerung
der Anlage.
Mit der Massenmessung von 54Ca
konnten die Vorhersagen der neuen
Ab-inito-Rechnungen überzeugend
bestätigt werden. Diese Resultate
unterstreichen deren Bedeutung in
der modernen Kerntheorie, auch
gerade deshalb, weil die Beschreibung konsistent auf reine Neutronenmaterie ausgeweitet werden konnte.
Neben der Frage, wie sich magische
st
Aus den Massen der Atomkerne
ergeben sich gemäß der Formel
E = mc 2 die Energien, mit denen die
Nukleonen, die Protonen und Neutronen, im Kern gebunden sind.
Besonders hohe Bindungsenergien
findet man bei Kernen mit „magischen“ Protonen- und Neutronenzahlen, bei denen die Kernbestandteile
geschlossene Schalen bilden. Bei den
leichten Kernen wird eine Reduzierung dieses Effekts als „shell quenching“ bezeichnet, während umgekehrt eine Erhöhung auf die Existenz
einer neuen magischen Zahl hinweisen kann.
Atomkernen mit einem großen
Ungleichgewicht zwischen Protonen
und Neutronen kommt dabei eine
besondere Bedeutung für das Verständnis der im Kern wirkenden
Kräfte zu. Vor kurzem wurde eine
neue Klasse von Ab-inito-Rechnungen mit realistischen Potentialen zur
Beschreibung entwickelt, die neben
der Wechselwirkung zwischen zwei
Nukleonen nun auch die zwischen
dreien einschließt. Unter Berücksichtigung dieser Dreikörperkräfte sagt
das neue Kernmodell für KalziumIsotope (Protonenzahl Z = 20) neben
den bekannten Schalenabschlüssen
bei Neutronenzahlen N = 20 und
N = 28 eine neue magische Konfiguration bei N = 32 vorher.
Um diese Vorhersage zu überprüfen, ist es notwendig, die Masse der
Nuklide 51Ca bis 54Ca zu messen. Dem
ISOLTRAP-Experiment (L. Schweikhard et al., Physik in unserer Zeit
2009, 40(4), 175) gelang erstmalig
die Bestimmung der Masse von 53Ca
200m
84Se
82Ge
80Zn
Schalenförmiger Aufbau eines Neutronensterns (links) mit
einem Radius von 10 km und einer 1,4-fachen Sonnenmasse,
bestehend aus der Atmosphäre (nicht gezeigt), der äußeren
und inneren Kruste sowie dem Kern. Rechts das Tiefenprofil
der äußeren Kruste mit expermentell bekannten Massen bis
zu einer Tiefe von 223 m. Grün markiert sind Nuklide mit
Neutronenzahl N˜50 (aus [4]).
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
217
T R E F F P U N K T FO R SC H U N G
Zahlen in exotischen Kernen entwickeln, ist deren Bedeutung unter
extremen astrophysikalischen Bedingungen Gegenstand aktueller Forschung – zum Beispiel beim Aufbau
von Neutronensternen, die im Wesentlichen aus Neutronen bestehen.
Neutronensterne besitzen einen
Durchmesser von etwa 20 Kilometern, beinhalten aber etwa die
1,4-fache Masse unserer Sonne und
sind damit die kompaktesten Objekte
im beobachtbaren Universum. Durch
die extremen Drücke und Dichten,
die in den äußersten Neutronensternschichten – der Kruste – vorherrschen, entsteht dort eine Reihe von
sehr neutronenreichen Elementen
(Abbildung 2). Bei Kollisionen mit
einem weiteren Neutronenstern
könnten diese freigesetzt werden und
so die Häufigkeitsverteilung der
Elemente im Universum bereichern.
T E I LC H E N PH YS I K
Die Massen exotischer Nuklide in
der Nähe magischer Zahlen geben
Aufschluss über die elementare
Zusammensetzung der Kruste. In
einem weiteren Experiment gelang
die Massenbestimmung von 82Zn
(Halbwertszeit 228 ms) in der Penning-Falle des ISOLTRAP-Aufbaus mit
der extrem kleinen relativen Unsicherheit von 4 · 10–8 – hinreichend,
um die Zusammensetzung der Neutronensternkruste bis in neue Tiefen
festzulegen. Die revidierte Bindungsenergie von 82Zn führte dazu, dass
dieses Nuklid in der Kruste nicht
mehr vorkommt [3]. Darauf aufbauend wurden verschiedene Massenmodelle im Hinblick auf die Zusammensetzung der Neutronensternkruste untersucht, die ausnahmslos
das obige Ergebnis bestätigen [4]. Ein
weiteres Ergebnis: Selbst in der
äußeren Kruste spielen die magi-
|
Kein Hinweis auf Majorana-Teilchen
Das Neutrino ist elektrisch neutral, weswegen es theoretisch sein eigenes Antiteilchen sein kann. Trifft dies zu, so wäre es ein sogenanntes
Majorana-Teilchen, was erhebliche Auswirkungen auf das Standardmodell hätte. In diesem Fall müsste sich dies in dem extrem seltenen neutrinolosen Doppelbeta-Zerfall äußern. Das derzeit empfindlichste Experiment namens GERDA fand jedoch bei dem Isotop Germanium-76
keinen Hinweis auf diese Zerfallsart und erbrachte die neue Untergrenze für dessen Halbwertszeit von 2,1 · 1025 Jahren.
Beim normalen Betazerfall wird aus
einem Neutron im Kern ein Proton,
ein Elektron und ein Antineutrino.
Für Kerne wie Ge-76 ist dieser Zerfall
energetisch verboten, aber die
gleichzeitige Umwandlung von zwei
Neutronen unter Emission zweier
Neutrinos ist möglich und wurde
kürzlich von GERDA (Germanium
Detector Array) mit bisher unerreichter Präzision gemessen. Es handelt
sich um einen der seltensten jemals
beobachteten Zerfälle mit einer
Halbwertszeit von etwa 2 · 1021
Jahren – entsprechend dem rund
100-milliardenfachen Alter des
Universums.
218
Phys. Unserer Zeit
5/2013 (44)
Im neutrinolosen DoppelbetaZerfall wird das Antineutrino des
einen Betazerfalls vom zweiten betazerfallenden Neutron als Neutrino
absorbiert – was nur möglich ist,
wenn Neutrino und Antineutrino
identisch sind. Ist dies der Fall, so
ließe sich möglicherweise die Baryonen-Asymmetrie im Urknall mit den
Neutrinos und nicht wie häufig
vermutet mit der CP-Verletzung bei
Baryonen erklären.
GERDA startete die Messung im
Herbst 2011 zunächst mit 18, später
mit insgesamt 28 Kilogramm angereichertem Ge-76. Nach der ersten
Messphase hatte das Experiment
www.phiuz.de
schen Neutronenzahlen N = 50 und
N = 82 eine große Rolle, die existierenden Nuklide liegen oft entlang
von diesen Isotonenketten, das heißt,
die Atomkerne gehören zu verschiedenen Elementen, haben aber die
gleiche Anzahl an Neutronen.
Literatur
[1] F. Wienholtz et al., Nature 2013, 498, 346.
[2] R. N. Wolf et al., Int. J. Mass Spectrom., im
Druck, DOI: 10.1016/j.ijms.2013.03.020
[3] R. N. Wolf et al., Phys. Rev. Lett. 2013, 110,
041101.
[4] S. Kreim et al., Int. J. Mass Spectrom., im
Druck, DOI: 10.1016/j.ijms.2013.02.015.
Susanne Kreim, CERN, Genf und
MPI für Kernphysik, Heidelberg;
Lutz Schweikhard, Frank Wienholtz,
Robert Wolf, Uni Greifswald
21 kg·Jahre an Daten gesammelt. Die
Analyse ergab kein Signal des neutrinolosen Doppelbetazerfalls, was zu
der weltbesten Untergrenze für dessen Halbwertszeit führt. Zusammen
mit den Ergebnissen anderer Experimente schließt dieses Resultat eine
frühere Behauptung, ein Signal gefunden zu haben, aus (Physik in unserer
Zeit 1998, 29(3), 123; 2002, 33(4),
155).
Damit bleibt zwar die Frage
derzeit noch offen, ob Neutrinos ihre
eigenen Antiteilchen sind; die neuen
einschränkenden Resultate von
GERDA haben jedoch bereits Konsequenzen für das Wissen über Neutrinomassen, Erweiterungen des Standardmodells, astrophysikalische
Prozesse und Kosmologie.
In einem nächsten Schritt will die
GERDA-Kollaboration, die Wissenschaftler aus 16 europäischen Forschungsinstituten und Universitäten
umfasst, zusätzliche neue Detektoren
einsetzen und damit die Menge von
Ge-76 in GERDA verdoppeln.
Links zu den Publikationen auf:
www.mpi-hd.mpg.de/gerda/public/
index.html
TB
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
T R E F F P U N K T FO R SC H U N G
PL A N E T E N FO R S C H U N G
PH YS I C S N E WS
|
Der Berg ruft
Ein Jahr nach seiner Landung auf dem Mars am 6. August 2012, hat
der Rover Curiosity nur etwas mehr als einen Kilometer zurückgelegt,
dabei jedoch einige interessante Funde gemacht. Nun soll er die acht
Kilometer lange Fahrt zum Zentralberg Mount Sharp antreten. Dort
erwartet ihn die eigentlich Missionsaufgabe: die Analyse von Sedimentschichten.
Abb. 1 Ansammlung von kieselartigen Steinen auf dem Mars (links) und eine
ähnliche Formation auf der Erde (rechts) (Fotos: NASA/JPL-Caltech/MSSS und PSI)
Eines der wertvollsten neuen Werkzeuge an Bord des 900 kg schweren
Rovers ist ein Bohrer, mit dem sich
Proben bis aus sechs Zentimeter
tiefen Gesteinslöchern entnehmen
lassen. Curiosity hat zwei solche
Bohrproben entnommen und mit
mehreren Verfahren analysiert – mit
überraschendem Ergebnis. Zunächst
fiel auf, dass das Innere nicht die
typisch rote Färbung besitzt, sondern
grau ist. Dabei handelt es sich wahrscheinlich um Magnetit, ein Mineral,
das auf ehemals lebensfreundliche
Bedingungen hindeutet. Die ebenfalls
nachgewiesenen Sulfat- und Tonminerale sprechen ebenfalls für eine
ehemalige Umgebung, die weder
extrem sauer, noch extrem salzig war.
Außerdem entstanden die Minerale
unter Einwirkung von Wasser, dem
nach unserem Verständnis notwenigen Ingredienz für die Bildung und
Existenz von Leben.
Aufsehen erregte zudem die
Entdeckung einer Ansammlung von
Steinen, die Kieseln in einem ehema-
ligen Flussbett ähneln (Abbildung 1).
Viele Forscher sehen das als deutliches Indiz für das Einwirken von
fließendem Wasser. Grundsätzlich
kann auch Wind Steine erodieren
und schleifen, aber einige von den
gefundenen scheinen hierfür zu groß
zu sein. Rebecca Williams vom Planetary Science Institute in Tucson,
Arizona, schätzt, dass der Fluss
damals knöchel- oder hüfttief war
und mindestens mit Fußgängergeschwindigkeit geflossen sein muss.
In der zweiten Phase der primär
auf zwei Jahre angelegten Mission
wird sich Curiosity auf die acht
Kilometer weite Fahrt zu dem
5500 Meter hohen Mount Sharp
machen. Wie lange die Reise dauern
wird, ist noch nicht klar. Der bisherige Geschwindigkeitsrekord liegt bei
100 m pro Tag. Ausgestattet mit
neuer Software soll Curtiosity zukünftig eigenständiger über seine
Fahrtroute entscheiden und schneller
als bisher vorankommen.
TB
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
|
Die Beschleunigung von Elektronen auf 2 GeV mit
Hilfe eines Lasers ist Physikern von der Universität in
Austin, Texas, gelungen. Die Energiebreite des Strahls
betrug nur einige Prozent. Eine Steigerung bis auf
10 GeV könnte möglich sein. Das eröffnet die Möglichkeit für den Bau von Freie-Elektronen-Lasern im Röntgenbereich (X. Wang et al., Nat. Comm. 11.6.2013:
DOI: 10.1038/ncomms2988).
+++
Die Feinstrukturkonstante ist auch in einem
20000-mal stärkeren Gravitationspotential als
dem der Erde bis auf 4 · 10–5 unverändert. Das hat
ein internationales Astronomenteam aus der Spektraluntersuchung eines Weißen Zwergs geschlossen. Die
Genauigkeit ist hierbei durch einen alten Laborwert
eines Übergangs in Fe-V-Ionen begrenzt. Einige Alternativen zur Allgemeinen Relativitätstheorie sagen eine
Veränderung der Feinstrukturkonstante in starken
Gravitationsfeldern voraus (arxiv.org/abs/1305.1337).
+++
Die Van-der-Waals-Kraft zwischen zwei Atomen
hat ein französisches Physikerteam erstmals gemessen.
Die Messung erfolgte an zwei im Abstand von wenigen
Mikrometern befindlichen Atomen im Rydberg-Zustand.
Auch den von der Theorie vorhergesagten Abfall der
Kraft mit der sechsten Potenz des Abstands konnten die
Forscher verifizieren (L. Béguin et al., Phys. Rev. Lett.
2013, 110, 263201,
DOI: 10.1103/PhysRevLett.110.263201
+++
Quarks sind höchstens so groß wie 10–4 des
Protondurchmessers. Das schließen Physiker des
CMS-Experiments am LHC aus einer neuen Messung
der Kopplungskonstanten der Starken Wechselwirkung
(www.kceta.kit.edu).
+++
Die Oszillation von Myon- in Elektronneutrinos
haben Physiker mit dem T2K-Experiment in Japan mit
einer Signifikanz von 7,5 Sigma gemessen. Hierfür
wurde im Japan Proton Accelerator Research Complex
nördlich von Tokio ein Strahl von Myon-Neutrinos
erzeugt und im 300 km entfernten Super-KamiokandeDetektor vermessen (t2k-experiment.org).
+++
Eine neue Art der Turbulenz hat ein Team um
Forscher des Max-Planck-Instituts für Dynamik
und Selbstorganisation in Göttingen und der
Universität des Saarlandes entdeckt. Der als elastoinertiale Turbulenz bezeichnete, chaotische Zustand
erklärt, warum die Zugabe von Polymeren Ölströmungen in Pipelines beruhigt (D. Samanta et al., Proc. Nat.
Acad. Sci. USA (PNAS), online 11. Juni 2013,
doi: 10.1073/pnas.1219666110).
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
219
DOI: 10.1002/piuz.201301346
Eichsymmetrien und Higgs-Mechanismus
Wie Teilchen
zu ihrer Masse kommen
R OBERT H ARLANDER
Mit der Entdeckung des Higgs-Teilchens hat die Physik beim
Verständnis der Natur einen entscheidenden Schritt nach
vorne gemacht. Der bereits vor mehr als 40 Jahren vorgeschlagene Higgs-Mechanismus ist im Kern die Folge eines
grundlegenden Symmetrieprinzips.
iel der Physik ist das Verständnis der Natur. Das bedeutet nicht nur, dass man die Naturgesetze in der Form
von Gleichungen sucht. Vielmehr versucht man, die zugrunde liegenden Prinzipien zu ergründen; die entsprechenden mathematischen Formeln sollten sich dann daraus
zweifelsfrei ergeben.
Symmetrien haben sich zu diesem Ziel als sehr erfolgreich herausgestellt, obwohl unsere Welt auf den ersten
Blick gar nicht symmetrisch erscheint. Insofern wird bereits an dieser Stelle klar, dass der Symmetriebegriff in der
Physik ein gehöriges Maß an Abstraktionsvermögen erfordert. Bei einigen Symmetrien ist dies einfacher, bei anderen
schwieriger. So sind in unserem Universum keine zwei
Orte genau gleich, aber trotzdem leuchtet es ein, dass die
Naturgesetze an jedem Ort dieselben sein sollten. Anderer-
Z
Peter Higgs im Jahre 2008 vor einem der Detektoren des LHC am CERN (Foto: CERN).
220
Phys. Unserer Zeit
5/2013 (44)
Online-Ausgabe unter:
wileyonlinelibrary.com
seits fällt es uns schon schwerer zu akzeptieren, dass die
Geschwindigkeit eines Lichtblitzes (im Vakuum) von der
Geschwindigkeit der Quelle unabhängig ist. Ob ich einem
Lichtblitz entgegenlaufe oder vor ihm davonlaufe: Die Geschwindigkeit zwischen mir und dem Lichtblitz bleibt immer gleich.
Die Vorhersage des Higgs-Teilchens basiert ebenfalls auf
einem Symmetrieprinzip. Um dieses zu verstehen, muss
man eine noch höhere Abstraktionshürde überwinden. Das
zugrunde liegende Prinzip sind hier die sogenannten Eichsymmetrien. Bis heute wird darüber diskutiert, ob man Eichsymmetrien tatsächlich als physikalisches Prinzip sehen
kann, oder ob sie einfach ein Artefakt unserer mathematischen Beschreibung der Physik sind. Mögen Sie sich am
Ende dieses Artikels Ihre eigene Meinung dazu bilden.
Die Entdeckung der Eichsymmetrie
Das Prinzip der Eichsymmetrie entwickelte in den 1920er
Jahren der Mathematiker Hermann Weyl beim Studium der
Elektrodynamik. Das Verständnis der elektromagnetischen
Wechselwirkung ist ein Paradebeispiel für die Zusammenarbeit von Theorie und Experiment. Aufbauend auf den
akribisch dokumentierten Experimenten von Faraday entwickelte Maxwell die Elektrodynamik, deren Tragweite jenseits aller Erwartungen war. Seine Gleichungen verfügen
gewissermaßen über ein Eigenleben, das erst die wahre Natur der elektromagnetischen Wechselwirkung – und, wie
wir sehen werden, aller fundamentalen Kräfte – offenbart.
Sie führten zum Verständnis und der Entdeckung von elektromagnetischen Wellen und zur Entwicklung der Relativitätstheorie. Uns interessiert hier vor allem ein anderer Aspekt der Maxwell-Gleichungen: ihre Eichsymmetrie.
Der Einfachheit halber betrachten wir zunächst eine hypothetische Welt, die als geladene Teilchen nur Elektronen
enthält. Andere elektrisch geladene Teilchen lassen sich
aber natürlich auf ganz analoge Art und Weise mit einbeziehen.
Ein zentrales Element bei der theoretischen Beschreibung der Physik ist die Lagrange-Funktion L. Bereits Ende
des 18. Jahrhunderts entwickelte Joseph Louis Lagrange
den Formalismus für die klassische Mechanik. Er hat sich
aber bis in die moderne Quantenfeldtheorie hinein bewährt.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
HIGGS -MECHANISMUS
Betrachten wir als mechanisches Beispiel das System
Erde-Mond. In diesem Fall ist die Lagrange-Funktion einfach
die Differenz aus der gesamten kinetischen Energie T des
Systems und der potentiellen Energie V, die sich aus der
gravitativen Wechselwirkung der beiden Körper ergibt:
L = T – V. Weil T einfach die Summe der kinetischen Energien von Erde und Mond ist, können wir die LagrangeFunktion auch als Summe dreier Terme schreiben:
LErde-Mond(xE, xM) = LErde(xE) + LMond(xM) + LWW(xE, xM),
wobei
LErde(xE) + LMond(xM) = T und
LWW(xE, xM) = –V.
Wir werden sehen, dass sich diese Form der LagrangeFunktion direkt auf die Elektrodynamik überträgt. Aus
LErde-Mond(xE, xM) ergeben sich dann die Newtonschen Bewegungsgleichungen dieses Systems, beispielsweise also
auch die Keplerschen Gesetze.
Man könnte sich nun geradezu vorstellen, dass die gesamte Physik in einer einzigen Lagrange-Funktion zusammengefasst werden kann, aus der sich dann die Naturgesetze, wie wir sie kennen, auf wohldefinierte Weise ableiten lassen.
Den Teil der Lagrange-Funktion, der die Elektrodynamik
beschreibt, bezeichnen wir mit LQED(A,ψ). Wir verwenden
hier das Akronym QED für Quantenelektrodynamik, also
für die in der Teilchenphysik relevante quantisierte Version
der elektromagnetischen Wechselwirkung. Der Unterschied
zur klassischen Elektrodynamik besteht darin, dass Quantenanregungen elektromagnetischer Felder, also Photonen,
mit einbezogen sind. In LQED(A,ψ) ist A(x) das elektromagnetische Potential, das die elektrische und magnetische
Feldstärke beinhaltet. ψ (x) ist die Wellenfunktion des Elektrons. Beide Größen hängen von den Raum-Zeit-Koordinaten ab, die hier der Einfachheit halber nur mit x bezeichnet
sind. Die Lagrange-Funktion der Elektrodynamik lässt sich,
ganz analog zu dem obigen mechanischen Beispiel, in drei
Terme aufspalten:
LQED(A,ψ) = LA(A) + Lψ (ψ) + LWW(A,ψ).
LA(A) beschreibt elektromagnetische Felder in dem Fall,
dass keine Ladungen (in unserem Fall also keine Elektronen)
vorhanden sind, also zum Beispiel elektromagnetische Wellen im Vakuum. Analog beschreibt Lψ (ψ) Elektronen bei Abwesenheit von elektrischen Feldern. Das ist ein hypothetischer Fall, weil ein Elektron durch seine Ladung selbst ein
elektromagnetisches Feld erzeugt. Lψ (ψ) beschreibt also genau genommen ein Elektron ohne elektrische Ladung. Der
Term LWW(A,ψ) enthält dann genau jene Effekte, die durch
die Wechselwirkung von elektromagnetischen Feldern mit
Elektronen entstehen.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
TEILCHENPHYSIK
Betrachten wir zunächst LA(A). Seine genaue Form ist
an dieser Stelle nicht von Bedeutung. Wichtig ist, dass sich
LA(A) nicht ändert, wenn man das Potential A(x) durch
A( x ) → A' ( x ) = A( x ) +
df ( x )
dx
(TA)
ersetzt, wobei f(x) eine beliebige Funktion der Raum-ZeitKoordinaten ist und df/dx ihre Ableitung. Mathematisch gesehen ist das nicht spektakulär; dennoch hat diese Gleichung weitreichende Konsequenzen. Den Übergang von
A(x) zu A'(x) nennt man Eichtransformation; der Teil LA(A)
der Lagrange-Funktion ist also symmetrisch, das heißt, er
ändert sich nicht unter Eichtransformationen.
Als nächstes widmen wir uns dem Teil Lψ (ψ), der freien Lagrange-Funktion des Elektrons. Die Wellenfunktion
ψ(x) ist eine komplexwertige Funktion, sie ordnet also jedem Raum-Zeit-Punkt zwei reelle Zahlen zu (hier vernachlässigen wir den Spin des
Elektrons): Man nennt diese
den Betrag r(x) und die Phase
α (x). Es zeigt sich nun, dass auch
Lψ (ψ) eine Symmetrie besitzt;
man kann nämlich zur Phase
α (x) der Wellenfunktion
eine beliebige, von x unabhängige Konstante ω
dazu addieren, ohne
dass sich Lψ (ψ) ändert.
Weil man diese Zahl ω
überall gleich wählen
muss, nennt man die Transformation
α (x) → α '(x) = α (x) + ω
(TEG)
global. Im Gegensatz dazu ist die Transformation (TA) von
A(x), wo an jedem Raum-Zeit-Punkt eine andere Zahl df/dx
addiert werden darf, lokal.
Wenden wir uns nun dem letzten Term in der Lagrange-Funktion zu, dem Wechselwirkungsterm LWW(A,ψ). Er
enthält sowohl das elektromagnetische Potential A(x) als
auch die Elektron-Wellenfunktion ψ (x). Es zeigt sich, dass
dieser Term nicht symmetrisch ist unter der Eichtransformation von A(x). Allerdings kommt es jetzt zu folgendem
faszinierenden Sachverhalt: Die Summe Lψ (ψ) + LWW(A,ψ)
(und damit die gesamte Lagrange-Funktion) ist symmetrisch
unter der Eichtransformation von A(x), vorausgesetzt, man
transformiert gleichzeitig die Phase der Elektron-Wellenfunktion gemäß
α (x) → α '(x) = α (x) + f(x),
(TEL)
wobei hier und in Gleichung (TA) dasselbe f(x) steht.
Man kann diese Beobachtung nun auch umdrehen: Die
Lagrange-Funktion des Elektrons ohne elektromagnetisches Feld hat nur eine globale Symmetrie (TEG); mit elekwww.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
221
ABB. 1
M EC H A N I S C H E A N A LO G I E
V
VS
V
V
VS
V
V
Eichprinzip und fundamentale
Wechselwirkungen
VS
Mechanische Analogie der Eichinvarianz. Mitte: globale
Transformation, unten: lokale Transformation.
tromagnetischem Feld erhält sie eine lokale Symmetrie
(TEL). Allerdings muss das elektromagnetische Potential
auf bestimmte Weise mittransformiert werden (TA). Daraus ergibt sich das sogenannte Eichprinzip: Die Forderung nach einer lokal eichsymmetrischen Lagrange-Funktion für das Elektron führt zwingend zur Wechselwirkung mit dem elektromagnetischen Feld: Nur die Summe
Lψ (ψ) + LWW(A,ψ) ist lokal eichsymmetrisch, Lψ (ψ) alleine nicht.
Das Eichprinzip lässt sich an einem mechanischen Beispiel erläutern. Betrachten wir eine schiefe Ebene, auf der
ein Auto antriebslos herunterrollt. Wenn die Sonne genau
senkrecht über dieser Anordnung steht, wirft das Auto einen Schatten auf den Boden, der sich auf bestimmte Art
und Weise von einem Punkt am Boden zu einem anderen
bewegt (Abbildung 1 oben). Die Bewegung dieses Schattens
ändert sich nicht, wenn wir die schiefe Ebene als Ganzes
nach oben oder unten bewegen. Nehmen wir an, dass wir
nur den Schatten des Autos sehen können, nicht aber die
schiefe Ebene oder das Auto selbst. Dann können wir nicht
222
Phys. Unserer Zeit
5/2013 (44)
entscheiden, auf welcher Höhe sich die schiefe Ebene befindet; nur deren Neigung ist relevant (Abbildung 1 Mitte).
Die Bewegung des Schattens ist symmetrisch unter der
globalen Transformation, bei der die Höhe der Ebene überall im Raum um den gleichen Betrag verschoben wird. Dem
Eichprinzip würde nun entsprechen, dass wir die Höhe der
schiefen Ebene an jedem Ort unterschiedlich wählen können; wir möchten die Form der Bahn also völlig willkürlich
verbiegen können, ohne dass sich die Bewegung des Schattens ändert (Abbildung 1 unten). Dies erreicht man nur, indem man das Auto an manchen Stellen beschleunigt oder abbremst. Es muss also eine Kraft eingeführt werden, die dafür sorgt, dass die Bewegung des Schattens keine Rückschlüsse auf die Form der Bahn mehr erlaubt. Die Höhe der
Bahn entspricht hier also der Phase der Elektron-Wellenfunktion. Die Forderung nach Eichsymmetrie erzwingt demnach die Existenz einer Kraft: Im mechanischen Beispiel bekommt das Auto einen Motor, im Falle des Elektrons benötigt man die elektromagnetische Wechselwirkung.
Dieses mechanische Beispiel verdeutlicht auch eine Frage philosophischer Natur, die sich zum Eichprinzip stellt. Es
erinnert an Platons Höhlengleichnis. Ist es tatsächlich so,
dass die Naturgesetze auf einer Realität beruhen, die tiefergehender ist als die von uns in Experimenten messbare?
Oder ist einfach unsere mathematische Beschreibung ineffizient oder redundant? Bis heute wird die Frage nach dem
Realitätsgehalt von Eichtheorien sowohl in der Philosophie
als auch in der Physik kontrovers diskutiert.
www.phiuz.de
Erstaunlicherweise lassen sich alle bekannten fundamentalen Wechselwirkungen aus dem Eichprinzip herleiten. Betrachten wir beispielsweise die starke Wechselwirkung, die
unter anderem dafür sorgt, dass Quarks im Proton gebunden sind. Der entscheidende Unterschied zur elektromagnetischen Wechselwirkung ist, dass die Wellenfunktion der
Quarks komplizierter ist: statt nur einer komplexen Zahl
ordnet sie jedem Raum-Zeit-Punkt drei komplexe Zahlen
zu: ψQuark(x) = (ψ1(x), ψ2(x), ψ3(x)). Die Symmetrie betrifft
jetzt nicht mehr nur die Phasen der einzelnen Komponenten von ψQuark, sondern erweitert sich auf Vertauschungen
dieser Komponenten. Diese Verallgemeinerung führt dann
statt auf ein Potential gleich auf acht Potentiale Aα(x),
α = 1,…, 8, Gluonfelder genannt.
An Teilchenbeschleunigern spielen weniger die klassischen Felder eine Rolle als vielmehr deren Quanten, also die
zugehörigen Teilchen. Das Quant der elektromagnetischen
Wechselwirkung ist bekanntlich das Photon; die acht Quanten der starken Wechselwirkung heißen Gluonen. Sie wurden 1979 am DESY in Hamburg entdeckt.
Die dritte fundamentale Wechselwirkung, verantwortlich beispielsweise für radioaktive Zerfälle, nennt man
schwache Wechselwirkung. Sie folgt ebenfalls aus einem
Eichprinzip, das in diesem Fall auf drei Quanten führt: W+,
W– und Z. Diese Teilchen wurden 1983 am CERN entdeckt,
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
HIGGS -MECHANISMUS
TEILCHENPHYSIK
wodurch das Standardmodell der Elementarteilchenphysik
(siehe „Das Standardmodell der Elementarteilchenphysik“,
S. 223) seine entscheidende experimentelle Bestätigung erfuhr. Für diese Entdeckung wurden Carlo Rubbia und Simon
van der Meer 1984 mit dem Nobelpreis ausgezeichnet.
Eichsymmetrie und mathematische
Konsistenz
Man kann zeigen, dass die Eichsymmetrie einer Theorie eng
mit Ladungserhaltung verknüpft ist. Sie ist damit bereits
physikalisch sehr gut motiviert. Erstaunlicherweise gibt es
aber auch eine rein mathematische Motivation. Um diese zu
verstehen, müssen wir zunächst noch einmal ein wenig ausholen.
Ein zentrales Element der Quantenmechanik ist die Unschärferelation: Ort und Impuls eines Teilchens können
nicht gleichzeitig mit beliebiger Genauigkeit bestimmt werden. Ebenso wenig kann man in endlicher Zeit die Energie
eines Systems beliebig genau messen. Dies hat zur Folge,
dass im Vakuum die Energie nicht immer und überall identisch gleich null sein kann. Es gibt Vakuum-Fluktuationen
der Energie, die man sich als permanentes Entstehen und
Vergehen von Paaren aus Teilchen und Antiteilchen vorstellen kann. Sie machen sich in quantenphysikalischen
Messungen durchaus bemerkbar, zum Beispiel im CasimirEffekt (im Vakuum entstehende Kräfte auf nahe beieinander liegende Metallplatten, s. Physik in unserer Zeit 2005,
36(2), 85) und in der Lamb-Verschiebung bei Atomspektren.
Bei der Berechnung von Prozessen, wie sie an Teilchenbeschleunigern stattfinden, müssen diese Vakuumfluktuationen mit berücksichtigt werden. Insbesondere werden die Teilchen bei der Bewegung durch dieses Vakuum
in ihren Eigenschaften beeinflusst: So kann das Vakuum die
Abb. 2 Tom Kibble, Gerald Guralnik, Carl Hagen, François Englert und Robert Brout
(v.l.n.r.) bei der Verleihung des Sakurai-Preises für Theoretische Physik 2010
(Foto: CERN).
Masse des Teilchens oder auch seine Ladung verändern. Im
Experiment messen wir stets den Effekt des Vakuums mit.
Die messbare Masse (auch physikalische Masse genannt)
setzt sich also zusammen aus der eigentlichen Masse des
Teilchens (nackte Masse) und dem Effekt der Vakuumfluktuationen, die wir im Folgenden Strahlungsmasse nennen
wollen:
mphys = mnackt + mStrahlung.
Die Quantenphysik erlaubt im Prinzip die Berechnung der
Strahlungsmasse. Allerdings stößt man dabei auf ein enormes Problem: In den meisten Fällen ergibt sich dafür ein unendlich großer Wert! Was läuft hier falsch?
DA S S TA N DA R D M O D E L L D E R E L E M E N TA R T E I LC H E N PH YS I K
Alle Phänomene, die an Teilchenbeschleunigern bisher beobachtet
wurden, lassen sich mit Hilfe einer
bestimmten Lagrange-Funktion LSM
verstehen, dem Standardmodell. Es
enthält alle in der Natur beobachteten
Teilchen und deren Eigenschaften:
sechs Leptonen (Elektron, Myon,
Tauon, die jeweils die einfache negative
Elementarladung tragen, sowie die drei
elektrisch neutralen Neutrino-Sorten),
sechs Quarks (Up, Charm, Top, jeweils
mit +2/3 der Elementarladung, und
Down, Strange, Bottom mit –1/3), sowie die Quanten der Wechselwirkungen (das Photon für die elektromagnetische, die Gluonen für die starke und
die beiden W-sowie das Z-Boson für die
schwache Wechselwirkung).
|
Photon und Gluonen sind masselos; alle
anderen Teilchen tragen unterschiedliche
Massen. Diese werden laut dem Standardmodell durch die Wechselwirkung der Teilchen mit dem Higgs-Feld verursacht.
Das Standardmodell (Abbildung)
erfasst nicht die Gravitation. Diese widersetzt sich bislang allen
Versuchen, sie im Rahmen
der Quantenphysik zu beschreiben – eine Grundvoraussetzung für die
Einbindung in das Standardmodell. Gravitationseffekte sind
bei Reaktionen von Elementarteilchen
aber extrem schwach und haben innerhalb der heutigen Messgenauigkeit keine
Bedeutung für Teilchenbeschleuniger-Experimente.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
223
ABB. 3
STÄRKE DES HIGGS-SIGNALS
Vergleich der Stärke des Higgs-Signals in unterschiedlichen
Zerfallsprozessen mit der theoretischen Erwartung (senkrechte gestrichelte Linie) (Quelle: ATLAS/CERN).
Die Antwort liegt, so wie wir es oben formuliert haben,
mehr oder weniger auf der Hand: Weder Strahlungsmasse
noch nackte Masse sind separat messbar, sondern nur ihre
Summe mphys; nur diese muss mit dem experimentellen
Wert übereinstimmen. mnackt und mStrahlung können also separat jeden beliebigen Wert annehmen (sogar Unendlich!),
solange sie in der Summe die physikalische Masse ergeben.
Damit hören die Probleme aber nicht auf: Unendlichkeiten treten nicht nur bei der Berechnung von Massen und
Ladungen auf, sondern bei fast jedem Prozess, wie man ihn
beispielsweise an Teilchenbeschleunigern beobachten
kann. Das Erstaunliche ist, dass sich im Falle der Elektrodynamik alle diese Unendlichkeiten gegenseitig kompensieren. Diese Tatsache erkannten in den 1940er Jahren Richard
Feynman, Julian Schwinger und Shinichiro Tomonaga – eine intellektuelle Leistung, die 1965 mit dem Nobelpreis geehrt wurde. Eine physikalische Theorie, bei der sich, wie in
der Elektrodynamik, die Unendlichkeiten gegenseitig kompensieren, nennt man renormierbar. Was von den Quantenfluktuationen bleibt, sind endliche, messbare Effekte. Sie
werden in diesem Artikel später noch eine Rolle spielen.
Es zeigt sich nun, dass eine zentrale Voraussetzung für
den Beweis der Renormierbarkeit der Elektrodynamik die
Eichsymmetrie ist. Sie hat also nicht nur die obige physikalische Bedeutung der Ladungserhaltung, sondern ist auch
essentiell mitverantwortlich dafür, dass eine Quantentheorie überhaupt sinnvolle Aussagen machen kann.
Teilchenmassen und Higgs-Mechanismus
Die Forderung nach Eichsymmetrie bedeutet strikte Einschränkungen an eine Quantentheorie. Hätte das Photon
beispielsweise eine von Null verschiedene Masse m, dann
224
Phys. Unserer Zeit
5/2013 (44)
www.phiuz.de
müsste die Lagrange-Funktion LA(A) einen Term der Form
m2A2 enthalten. Ganz offensichtlich ist dieser aber nicht
symmetrisch unter der Ersetzung (TA). Das Photon muss
wegen der Eichsymmetrie also masselos sein.
Dasselbe gilt im Prinzip auch für die Gluonen und die
W- und Z-Bosonen, also die Quanten der starken und schwachen Wechselwirkung. Erstere sind in der Tat masselos. Aus
Experimenten wissen wir aber, dass die W- und Z-Bosonen
eine Masse besitzen. Die Lagrange-Funktion der schwachen
Wechselwirkung scheint also nicht eichsymmetrisch zu
sein! Was bedeutet das nun für die Renormierbarkeit und
damit die Konsistenz der Theorie?
Hier kommt der Higgs-Mechanismus zu Hilfe. Die Idee
dahinter ist, dass es ein zusätzliches (Quanten-)Feld gibt, das
eine gegenüber den anderen bekannten Feldern sehr seltsame Eigenschaft hat. Beispielsweise ist ein elektromagnetisches Feld immer mit Energie verbunden: Der Zustand
niedrigster Energie wird jedes Mal dann erreicht, wenn das
Feld verschwindet – bis auf die erwähnten Vakuumfluktuationen. Anders beim Higgs-Feld: Hier wird die Energie
minimal bei einem gewissen nicht-verschwindenden Wert
ν des Higgs-Feldes, dem sogenannten Vakuumerwartungswert (VEV).
Man kann sich die Situation so vorstellen, dass sich alle
Teilchen durch das Vakuum bewegen, das wie mit einer Art
Medium, eben dem VEV des Higgs-Feldes, erfüllt ist. Diese
Sichtweise wird oft als „Rückkehr des Äthers“ kritisiert. Allerdings sind das Higgs-Feld und sein VEV, im Gegensatz
zum Äther, vollkommen verträglich mit allen bekannten
physikalischen Prinzipien.
Die Einführung des Higgs-Feldes ist in gewisser Weise
ein mathematischer Trick: Der Masseterm des Z-Bosons in
der Lagrange-Funktion MZ2Z2(x), der die Eichsymmetrie verletzen würde, entsteht dabei aus einem (eichsymmetrischen) Wechselwirkungsterm mit dem Higgs-Feld φ (x):
λφ 2(x)Z 2(x) = λν 2Z 2(x) + … .
(MZ)
Wie fast alle Gleichungen in diesem Artikel ist (MZ) symbolisch zu verstehen, im Standardmodell sind die Ausdrücke
ein wenig komplizierter. In (MZ) sind λ eine Zahl, die die
Stärke der Wechselwirkung zwischen Higgs-Feld und
Z-Boson bestimmt, und ν der VEV des Higgs-Feldes. Diese
Gleichung erhält man, indem man das Higgs-Feld durch seinen VEV ersetzt. Die Punkte auf der rechten Seite deuten
an, dass dies nicht alles ist: Das Higgs-Feld kann auch höhere
Energie besitzen, das heißt, es kann angeregt sein – darauf
kommen wir später noch zurück. Der Term auf der rechten Seite hat genau die Form eines Massenterms für das ZBoson. Vergleich mit MZ2Z2(x) ergibt MZ2 = λν 2: Die Masse
ist proportional zur Stärke der Kopplung an das Higgs-Feld.
Das gilt ganz allgemein: Je stärker die Wechselwirkung eines Teilchens mit dem Higgs-Feld ist, desto schwerer ist es.
Der Term auf der linken Seite in (MZ) – und damit das
Verhalten des Higgs-Feldes unter Eichtransformationen – ist
so gewählt, dass die Lagrange-Funktion des Standardmodells
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
HIGGS -MECHANISMUS
aufbauend auf der speziellen, von Sheldon Glashow vorgeschlagenen Eichsymmetrie, das Standardmodell ins Leben
gerufen. Glashow, Salam und Weinberg erhielten dafür 1979
den Nobelpreis.
Die ernsthafte Suche nach dem Higgs-Teilchen begann
am LEP-Beschleuniger (1989 bis 2000), dem Vorgängerexperiment des LHC am CERN. Sie wurde dann in den USA
am Tevatron des Fermilab (1983 bis 2011) weitergeführt,
allerdings stets mit negativem Resultat. Immerhin konnte
der mögliche Massenbereich für das Higgs-Teilchen eingeschränkt werden. Außerdem war die Vermessung des Standardmodells bei LEP so präzise, dass im Vergleich mit dem
Standardmodell die oben angesprochenen, endlichen Ef-
DIE ROLLE DER THEORIE BEI DER ENTDECKUNG DES HIGGS-BOSONS
am LHC vermutlich fehlinterpretieren
und vorschnell auf einen Widerspruch
zum Standardmodell schließen.
Die Rolle der Theorie hat also mit
der Erfindung des Higgs-Mechanismus
nicht aufgehört: Sie ist essenziell für
die Interpretation der Messdaten des
LHC. Dementsprechend haben sich im
Zusammenhang mit der Suche nach
dem Higgs-Teilchen und dessen Vermessung rund hundert Theoretiker
und Experimentatoren zur LHC Higgs
Cross Section Working Group zusammengeschlossen [5], um Rechnungen
und Messungen optimal aufeinander
abzustimmen.
102
pp →
10
s= 8 TeV
H (N
NLO
+NN
LL
QC
D
|
+N
LO
EW
LHC HIGGS XS WG 2012
Das Standardmodell entspricht wie beschrieben einer bestimmten LagrangeFunktion. Aus ihr lässt sich im Prinzip
jede Größe, die am LHC gemessen
wird, berechnen. Jedoch sind diese
Berechnungen so kompliziert, dass sie
nur in wohldefinierten Näherungen
durchgeführt werden können.
Im Jahre 2002 konnten wir zeigen
[4], dass die Anzahl der Higgs-Teilchen,
die am LHC pro Zeiteinheit erzeugt
werden, etwa doppelt so groß ist wie
auf Grundlage der einfachsten Näherungsrechnung angenommen (etwa
ein Higgs-Teilchen pro Minute). Ohne
diese Korrektur würde man das Signal
Wirkungsquerschnitt /pb
eichsymmetrisch bleibt. Sie ist es also auch, wenn man stattdessen die rechte Seite verwendet. Nur wenn man die Punkte auf der rechten Seite von (MZ) weglässt oder nicht vollständig berücksichtigt, also im Vakuum, wird die Eichsymmetrie gebrochen. Man spricht hier von spontaner Symmetriebrechung: Die Lagrange-Dichte hat die Symmetrie,
aber der Vakuumzustand nicht. Gerardus ’t Hooft und Martinus Veltman zeigten Anfang der 1970er Jahre, dass in diesem Fall die Renormierbarkeit gesichert bleibt. Im Jahre
1999 wurden sie dafür mit dem Nobelpreis ausgezeichnet.
Interessant wird der Higgs-Mechanismus dadurch, dass
dieser zunächst rein mathematische Trick eine unvermeidliche physikalische Konsequenz hat. Dies führt uns auf die
bereits erwähnten Anregungen des Higgs-Feldes zurück. Sie
entsprechen physikalisch beobachtbaren Teilchen, eben
den Higgs-Teilchen. Es muss also ein Higgs-Teilchen geben,
das mit der Stärke λ mit den massiven Teilchen wechselwirkt.
Die Tatsache, dass das Higgs-Feld einen VEV hat, verbietet, dass dieses Teilchen einen Eigendrehimpuls (Spin)
oder eine elektrische Ladung trägt. Andernfalls wäre das
Vakuum elektrisch geladen, oder es wäre eine Richtung im
Raum ausgezeichnet (eben durch den Spin). Diese Eigenschaften übertragen sich auch auf das Higgs-Teilchen. In
der Tat ist die einzige, nicht durch die Theorie festgelegte
Eigenschaft des Higgs-Teilchens seine Masse.
Wir können den Higgs-Mechanismus auch wieder in unserer mechanischen Analogie des Autos auf der schiefen
Ebene veranschaulichen. Dazu nehmen wir an, dass die
schiefe Ebene mit einer Schneeschicht bedeckt sei – sie entspricht dem Higgs-Feld. Nun lassen wir nicht Autos die Ebene hinabfahren, sondern Skifahrer. Je schlechter das verwendete Skiwachs, desto mehr Energie benötigt man, sie auf
eine bestimmte Geschwindigkeit zu bringen. Leichte Teilchen entsprechen also Skifahrern mit gutem Wachs, schwere solche mit schlechtem. Die Qualität des Skiwachs entspricht also der Kopplungskonstanten λ aus Gleichung
(MZ): schlechtes Skiwachs entspricht starker Kopplung.
Sogar das Higgs-Teilchen lässt sich in dieser Analogie
verstehen. Es ist ja die (Quanten-)Anregung des Higgs-Feldes. In unserem Bild kann man sich das als Schneelawine
vorstellen: eine „Selbstanregung“ des Schneefeldes. Ihre
„Masse“ – also die Geschwindigkeit, mit der sie den Berg hinunterrutscht – hängt davon ab, wie klebrig oder pulverig
der Schnee ist, das heißt, welche „Selbstkopplung“ das
Higgs-Feld hat.
TEILCHENPHYSIK
)
1
10-1
pp →
qqH
(NNL
OQ
CD +
pp
pp
NLO
→
→
EW)
W
ZH
H
(
NN
(N
NL
LO
O
QC
QC
pp
D
→
D
+
ttH
+N
(N
LO N LO
LO
EW
EW
QC
)
)
D)
10-2
Die Entdeckung des Higgs-Teilchens
Der Higgs-Mechanismus wurde Mitte der 1960er Jahre von
Peter Higgs [1] und unabhängig von zwei weiteren Gruppen entwickelt: Robert Brout und François Englert [2] sowie Gerald Guralnik, Carl Hagen und Tom Kibble (Abbildung 2) [3]. Korrekterweise sollte man also vom Brout-Englert-Higgs-Guralnik-Hagen-Kibble-Mechanismus sprechen.
Steven Weinberg und unabhängig davon Abdus Salam haben
ihn 1967 auf die W- und Z-Bosonen angewandt und damit,
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
80 100
200
300
400
1000
M H /GeV·c –2
Theoretisch berechnete Wirkungsquerschnitte für Higgs-Teilchen am LHC [5]. Sie
sind ein Maß für die Häufigkeit, mit der sie in unterschiedlichen Prozessen erzeugt
werden. Für die enorm aufwendigen Berechnungen wurden zum Teil völlig neuartige mathematische Methoden entwickelt. Die Übereinstimmung mit den experimentell gemessenen Häufigkeiten ist eine essenzielle Voraussetzung dafür, dass es
sich bei dem beobachteten Signal tatsächlich um das Higgs-Teilchen des Standardmodells handelt.
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
225
Massenwerte aus der Theorie selbst heraus ergeben würfekte der Vakuumfluktuationen in die Berechnungen mit
den.
einbezogen werden mussten. Dadurch erhielten die LEPEin wichtiger Kritikpunkt am Standardmodell ist auch,
Daten eine indirekte Empfindlichkeit für das Higgs-Teilchen.
dass der Higgs-Mechanismus in vielen Aspekten als eine AdIn der Tat stimmt der daraus gefolgerte Wert der Higgs-Mashoc-Lösung erscheint, um Teilchenmassen mit der Eichse sehr gut mit der jetzt direkt gemessenen Masse überein.
symmetrie kompatibel zu machen.
Ab 2010 begann der LHC mit der Higgs-Suche, am 4. JuEin weiteres, quantitatives Argument gegen den Higgsli 2012 war es dann so weit: Die beiden größten ExperiMechanismus, wie er im Standardmodell auftritt, ist das Feinmente am LHC verkündeten, dass sie ein nahezu unanjustierungs-Problem. Um dieses zu verstehen, erinnern wir
zweifelbares Signal in ihren Datensätzen sehen, das mit dem
uns wieder an die Vakuumfluktuationen. Wir hatten beHiggs-Teilchen kompatibel ist. In den Worten von CERNschrieben, wie sie unendliche Beiträge zu den TeilchenGeneraldirektor Rolf Heuer vom 4. Juli 2012: „I think we
massen liefern, in der Summe mit den ebenfalls unendlich
have it.“ Ist es aber wirklich das Higgs-Teilchen?
großen nackten Massen aber die messbare physikalische
Das Standardmodell geht von einer „minimalen Version“
Masse ergeben. Bei der Formulierung des Feinjustierungsdes Higgs-Mechanismus aus, bei der es nur ein Higgs-TeilProblems geht man davon aus, dass weder die nackte Maschen gibt. Es wäre durchaus möglich, dass verschiedene
se noch die Strahlungsmasse wirklich unendlich groß sind.
Higgs-Teilchen existieren, die sich in ihren Eigenschaften
Stattdessen hängen sie vom minimalen Abstand ab, bis zu
von dem des Standardmodells unterscheiden würden. Oder
dem Wechselwirkungen durch das Standardmodell behat der LHC vielleicht sogar ein völlig anderes Teilchen entschrieben werden. Dass es einen solchen minimalen Abdeckt?
stand gibt, ist klar, wenn man bedenkt, dass das StandardAus der Lagrange-Funktion des Standardmodells kann
modell die Gravitation nicht beinhaltet. Letztere ist für Eleman berechnen, mit welcher Wahrscheinlichkeit ein Higgsmentarteilchen so schwach, dass sie erst auf der Skala der
Teilchen am LHC erzeugt wird und in welche Teilchen es
Planck-Länge eine Rolle spielen sollte, also bei Abständen,
mit welcher Häufigkeit wieder zerfällt. Ein Vergleich mit
die 1019-mal kleiner sind als der Protondurchmesser. Der
dem Experiment zeigt sehr gute Übereinstimmung (Abbildung 3). Auch kompliziertere MessLHC überprüft das Standardmodell bei
DAS STANDARDMODELL IST
größen (Häufigkeiten von ZerfallsproAbständen, die höchstens 104-mal kleidukten in bestimmten Detektorbereiner als der Protondurchmesser sind.
WOHL NUR DER GRENZFALL
chen usw.) können berechnet werden.
Gehen wir also davon aus, dass es
EINER WEITREICHENDEREN
So zeichnet sich immer mehr ab, dass
einen Minimalabstand gibt, bis zu dem
THEORIE
es sich tatsächlich um das gesuchte
das Standardmodell gilt. Er könnte
Higgs-Teilchen handelt (siehe „Die Rol105-, 106- oder eben 1019-mal kleiner
le der Theorie bei der Entdeckung des
als der Protondurchmesser sein. Die
Higgs-Bosons“, S. 225).
Strahlungsmasse hängt dann von diesem Abstand ab, und
zwar so, dass sie gegen Unendlich geht, wenn der Abstand
gegen Null geht.
Jenseits des Standardmodells
Für Elektronen, Quarks und überhaupt alle Teilchen des
Das Standardmodell beschreibt alle Phänomene, die bislang
Standardmodells außer dem Higgs-Teilchen ist diese Aban Teilchenbeschleunigern beobachtet wurden, mit zum
hängigkeit sehr schwach (logarithmisch). Wenn das StanTeil außerordentlicher Präzision. Allerdings gibt es einige
dardmodell also tatsächlich bis zur Planck-Länge gilt, dann
kosmologische und astrophysikalische Beobachtungen wie
setzt sich beispielsweise die physikalische Elektronmasse
etwa Dunkle Materie oder Dunkle Energie, die sich innerme = 511 keV/c2 zusammen aus einer nackten Masse von
halb des Standardmodells nicht erklären lassen.
Andererseits wird auch auf rein theoretischer Ebene ar482 keV/c2 und einer Strahlungsmasse von 29 keV/c2 – die
gumentiert, dass das Standardmodell vermutlich nur der
Zahlen in diesem Abschnitt dienen nur zur VeranschauliGrenzfall einer weitreichenderen Theorie sei, den wir bei
chung und tragen eine relativ große theoretische Unsiden uns bislang zur Verfügung stehenden Energien noch
cherheit.
nicht überprüfen können. Es ist allerdings doch verwunWenn das Standardmodell nur bis zu Abständen von etderlich, dass dieser Grenzfall bereits eine mathematisch vollwa 10–6 des Protondurchmessers gilt, dann sind die Beträkommen konsistente Theorie liefert.
ge der nackten Masse 499 keV/c2 und der Strahlungsmasse
Ein Argument, das oft angeführt wird, um eine überge12 keV/c2. Die Strahlungsmasse ändert sich also nur ungeordnete Theorie zu motivieren, ist die relativ große Anzahl
fähr um einen Faktor 3, wenn der Minimalabstand sich um
freier Parameter des Standardmodells. Auch wenn alle Maseinen Faktor 1013 verkleinert!
sen durch den Higgs-Mechanismus erzeugt werden, muss
Beim Higgs-Teilchen ist die Abhängigkeit der Strahdie Größe dieser Massen (oder äquivalent die Kopplung des
lungsmasse vom minimalen Abstand nicht logarithmisch,
jeweiligen Teilchens an das Higgs-Teilchen) „per Hand“ einsondern quadratisch. Bei einer physikalischen Higgs-Masse
geführt oder besser gesagt experimentell bestimmt werden.
von 125,6 GeV/c2, wie sie von den LHC-Experimenten geFür die Physiker wäre es überzeugender, wenn sich diese
messen wurde, lautet die Bilanz von physikalischer, nackter
226
Phys. Unserer Zeit
5/2013 (44)
www.phiuz.de
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
HIGGS -MECHANISMUS
und Strahlungsmasse bei einem Minimalabstand von der
Planck-Länge etwa
125,6 = 52847625527388363,8 – 52847625527388238,2.
Nackte Masse und Strahlungsmasse, zwei völlig unabhängige Größen, sind beide riesig und fast (entgegengesetzt)
gleich groß. Ihre Differenz ergibt genau die im Experiment
gemessene Higgs-Masse. Kann diese fast perfekte Gleichheit Zufall sein? Oder steckt ein physikalisches Konzept dahinter, das wir noch nicht entdeckt haben?
Wenn der Minimalabstand für das Standardmodell dagegen nur etwa ein Millionstel des Protondurchmessers ist,
dann sieht die Gleichung nicht ganz so merkwürdig aus:
TEILCHENPHYSIK
Zusammenfassung
Mitte 2012 wurde vermutlich der letzte Baustein des Standardmodells der Teilchenphysik experimentell gefunden: das
Higgs-Teilchen. Seine Existenz war vor mehr als 40 Jahren aufgrund abstrakter Symmetrieprinzipien theoretisch gefordert
worden. Dieses Eichprinzip lässt sich einigermaßen präzise erläutern, ohne den vollständigen Formalismus heranziehen zu
müssen. Zudem lässt dieser sich mit einer mechanischen Analogie veranschaulichen. Der Higgs-Mechanismus wurde eingeführt, um die explizite Brechung der Eichsymmetrie durch
Teilchenmassen zu umgehen. Damit ist das Standardmodell
wieder einmal glänzend bestätigt, aber es bleiben theoretische Kritikpunkte.
Stichworte
125,6 = 5062,7 – 4937,1.
Von vielen Teilchenphysikern wird diese Beobachtung als
Hinweis darauf gesehen, dass das Standardmodell schon bei
relativ großen Abständen – also knapp unterhalb dessen,
was bisher überprüft wurde – nicht mehr gilt. Die Umrüstung des LHC auf seine volle Strahlenergie kann uns die
Antwort darauf geben.
2015 geht es weiter
Die Entdeckung eines Higgs-Teilchens am LHC ist ohne
Zweifel ein Meilenstein der Teilchenphysik. Sie ist ein enormer experimenteller Erfolg, der auf technologischen Durchbrüchen, brillanten Ideen und unzähligen Tag-, Nacht- und
Wochenendschichten beruht. Sie ist auch ein großer Triumph für die theoretische Physik, die mit dem Eichprinzip
ein fundamentales Konzept unserer Natur gefunden zu haben scheint. Nicht zuletzt ist sie aber auch Ergebnis einer
beispiellosen Kooperation von Theorie und Experiment,
die über Länder-, Kultur-, Religions- und viele andere Grenzen hinweg auf ein gemeinsames Ziel hin arbeitet.
Das Standardmodell wäre mit dieser Entdeckung komplett. Dennoch gibt es viele offene Fragen: Wie funktioniert
Gravitation auf dem Quantenniveau? Kann man die Parameter des Standardmodells erklären? Was steckt hinter dem
Konzept der Eichsymmetrie? Wir hoffen, dass uns der LHC
ab 2015 mit fast verdoppelter Schwerpunktsenergie den
Antworten ein Stück näher bringt.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Higgs-Mechanismus, Lagrange-Formalismus, Lagrange-Funktion, Higgs-Teilchen, Eichsymmetrien, Renormierbarkeit, Vakuumerwartungswert. Standardmodell der Teilchenphysik.
Literatur
[1] Peter W. Higgs, Phys. Rev. Lett 1964, 13(16), 508.
[2] F. Englert, R. Brout, Phys. Rev. Lett. 1964, 13(9), 321.
[3] G. S. Guralnik, C. R. Hagen, T. W. B. Kibble, Phys. Rev. Lett. 1964,
13(20), 585.
[4] R. V. Harlander, W. B. Kilgore, Phys. Rev. Lett. 2002, 88, 201801.
[5] twiki.cern.ch/twiki/bin/view/LHCPhysics/CrossSections.
Der Autor
Robert Harlander promovierte1998 an der Universität Karlsruhe. Nach Forschungsaufenthalten am
Brookhaven National Laboratory, USA, und dem
CERN in Genf leitete er eine Emmy-Noether-Nachwuchsgruppe in Karlsruhe. Seit 2005 ist er Professor
an der Bergischen Universität Wuppertal.
Anschrift
Prof. Dr. Robert Harlander, Fachbereich C, Bergische
Universität Wuppertal, 42097 Wuppertal,
[email protected].
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
227
DOI: 10.1002/piuz.201301334
Gedruckte organische Elektronik
Smart und flexibel
H ENNING R OST |J ÜRGEN K RUMM |K ATRIN R IETHUS |K LAUS L UDWIG
Gedruckte Elektronik wird mit „elektronischen Tinten“ hergestellt. Diese Tinten werden durch Rolle-zu-Rolle-Druckverfahren sehr präzise auf großflächige, flexible Substrate aufgebracht. Die günstige Elektronik eröffnet neue Anwendungsfelder, die konventioneller Siliziumelektronik bisher nicht oder
nur eingeschränkt zugänglich waren.
nter gedruckter Elektronik versteht man elektronische
Bauelemente, die teilweise oder sogar vollständig mit
Druckverfahren hergestellt werden. Anstelle von konventionellen Druckfarben verwendet man dazu sogenannte
elektronische Funktionsmaterialien. Oft sind es spezielle
Kunststoffe mit elektrisch leitenden, halbleitenden und isolierenden Eigenschaften. Sie werden in herkömmlichen organischen Lösungsmitteln gelöst und als eine Art elektronische Tinte verdruckt. Die Herausforderung bei elektronischen Bauteilen liegt darin, dass man beim Drucken
nacheinander mit großer Präzision verschiedene Schichten
mit feinen Strukturen aufeinander legen muss. Tatsächlich
kann man damit heute schon funktionierende elektronische
Komponenten wie Transistoren, Dioden und Kondensatoren erzeugen (Abbildung 1). Die Nutzung von modernen
Druckverfahren führt zu einer erheblichen Senkung der
Herstellungskosten.
U
Mit solchen Verfahren kann unsere Fürther Firma
PolyIC, ein Tochterunternehmen der Leonhard Kurz Stiftung, bereits dünne, flexible und preiswerte Elektronikbauteile herstellen. Einige ausgewählte Produkte wollen wir
in diesem Artikel vorstellen. Funketiketten, Displays und
sogenannte Smart Objects sollen als Beispiele illustrieren,
was gedruckte organische Elektronik schon zu leisten vermag. Erste Anwendungen kommen in Form von transparenten und leitfähigen Folien bereits auf den Markt.
Leiter und Halbleiter aus Kunststoffen
Wie in der klassischen Elektronik werden für den Aufbau
von organischen Schaltungen Transistoren benötigt, sogenannte Organische Feldeffekt-Transistoren (OFETs). In der
klassischen Elektronik werden als Halbleiter p- und n-dotiertes Silizium eingesetzt. Bei der Fertigung baut man dazu gezielt Fremdatome in den Siliziumkristall ein, um die
Leitfähigkeit zu steuern. Ersetzt man im Silizium einige Siliziumatome mit vier Außenelektronen durch Atome von
Elementen der III. Hauptgruppe mit drei Außenelektronen,
zum Beispiel Gallium oder Indium, schafft man so Elektronenleerstellen. Beim Austausch einiger Siliziumatome mit
Elementen der V. Hauptgruppe des Periodensystems mit
fünf Außenelektronen, zum Beispiel Arsen oder Antimon,
entstehen Stellen mit überschüssigen Elektronen. Bei derart dotierten Siliziumkristallen findet man eine stark erhöhte
elektrische Leitfähigkeit gegenüber dem reinen Silizium. In
Abhängigkeit von der Art der Dotierung unterscheidet man
zwischen p-Leitung mit Elektronenleerstellen, auch Defektelektronen oder Löcher genannt, als Ladungsträger, sowie n-Leitung mit Überschusselektronen.
Bei organischen Halbleitern und Leitern, wie etwa bei
konjugierten Polymeren [1], kann man unter gewissen Voraussetzungen ebenfalls p- und n-Leitung beobachten. Im
Gegensatz zu den anorganischen Halbleitern wie Silizium
werden hier Ladungsträger jedoch nicht durch Dotierung,
sondern durch chemische Reaktionen mit Elektronenübergang, also Redoxreaktionen, erzeugt. Im „unbehandelten“
Zustand findet man in derartigen organischen Materialien
eine Bandlücke im Bereich von 1 bis 3 eV (zum Vergleich:
rund 1,1 eV in Si). Sie trennt das mit Elektronen gefüllte
Valenzband HOMO (Highest Occupied Molecular Orbital)
vom energetisch höher liegenden, leeren Leitungsband
Abb. 1 Maschine zur Herstellung von gedruckter Elektronik.
228
Phys. Unserer Zeit
5/2013 (44)
Online-Ausgabe unter:
wileyonlinelibrary.com
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
GEDRUCK TE ORGANISCHE ELEK TRONIK
LUMO (Lowest Unoccupied Molecular Orbital) (Abbildung 2).
Durch den Kontakt mit chemischen Oxidationsmitteln,
um p-Leiter zu erhalten oder mit Reduktionsmitteln zur Erzeugung von n-Leitern, lässt sich die Eigenleitfähigkeit der
Materialien um mehrere Größenordnungen steigern. Bei
mit Jod oxidiertem Polyacetylen wurden schon vor Jahrzehnten Leitfähigkeitssteigerungen bis auf Werte von
170 000 S/cm beschrieben, was in der gleichen Größenordnung der Leitfähigkeit von Kupfer liegt [2]. Leider zeigte sich jedoch, dass organische Polymere mit derartig hohen
Leitfähigkeiten nicht dauerhaft stabil sind. Zudem muss man
für organische n- und p-Leiter im Allgemeinen unterschiedliche Ausgangsmaterialien verwenden, die sich hinsichtlich ihrer chemischen Struktur unterscheiden.
Bei „normalen“ organischen Feldeffekt-Transistoren allerdings steht man zum Glück nicht vor dem Problem, verschiedene n- und p-Materialien kombinieren zu müssen. Bei
den hier betrachteten OFETs wird grundsätzlich kein permanent leitfähiges Halbleitermaterial benötigt. Die Leitfähigkeit der halbleitenden Schicht wird allein durch das
Anlegen von elektrischen Spannungen an die drei Anschlüsse
Drain, Source und Gate der Transistoren hergestellt (Abbildung 3). Diese sorgen für ein elektrisches Feld, das Ladungsträger in den Halbleiterkanal zieht, wo sie dann längs
der Halbleiterschicht von einem Kontakt zum anderen fließen können. Energetisch betrachtet findet bei OFETs dieser
Transport je nach Halbleitertyp im HOMO (bei p-Typ-Transistoren) oder im LUMO (bei n-Typ-Transistoren) statt [3].
ABB. 2
TECHNISCHE PHYSIK
Von größter Bedeutung ist hierbei die chemische Struktur der Halbleiterschicht. Sie muss den Transport von Ladungen im angelegten elektrischen Feld erlauben. Die
Grundvoraussetzung für halbleitende Eigenschaften sowie
elektrische Leitfähigkeit in organischen Kunststoffen ist das
Vorhandensein eines konjugierten π-Systems mit einer alternierenden Sequenz von Einfach- und Doppelbindungen
(siehe [3, 4] und Beispiele in Abbildung 4). Im Allgemeinen
sind lochleitende Materialien aufgrund ihres chemischen
Aufbaus elektronenreich, so dass leicht Elektronen aus dem
gefüllten Valenzband (HOMO) extrahiert werden können.
Eine häufig eingesetzte und bewährte Materialklasse
sind die alkylsubstituierten Polythiophene (Abbildung 4).
Diese Polyalkylthiophene, besonders Poly(3-hexylthiophen)
(PHT), besitzen eine gute Ladungsträger-Mobilität und eignen sich daher zum Beispiel als Halbleitermaterial [5]. Die
chemische Substitution der Thiophenringe des Moleküls
mit Alkylketten sorgt für eine gute Löslichkeit in organischen Lösungsmitteln. Das ergibt die erforderlichen rheologischen Eigenschaften (Fließeigenschaften) von Tinten,
die eine Verdruckbarkeit gewährleisten.
Ein weiterer wichtiger Aspekt des Ladungsträger-Transports ist das Material der verwendeten Elektroden. Da bei
p-Leitung der Transport im HOMO-Energiebereich stattfindet, kann man edle und damit stabile Metalle wie Gold als
Elektroden einsetzen, um damit Ladungsträger in den Halbleiter zu injizieren. Die n-Leitung basiert auf Ladungsträgern
im Energiebereich des LUMO-Niveaus. Deshalb sind häufig
nur unedle Metalle wie Calcium als Elektrodenmaterial ge-
BA N D L Ü C K E
LUMO
LUMO
Leitungsband
Leitungsband
Elektroneninjektion
Elektronenextraktion
Elektronentransport
Bandlücke
Bandlücke
Lochinjektion
Elektrode
Lochtransport
Lochextraktion
Valenzband
Valenzband
HOMO
HOMO
Polymer
Elektrode
p-TypLadungsträgertransport
Elektrode
Polymer
Elektrode
n-TypLadungsträgertransport
Bandlücke in organischen Halbleitern und Ladungsträgerinjektion durch geeignete Elektroden.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
229
O RG A N I S C H E R F E L D E F F E K T-T R A N S I S TO R
VGS
ABB. 5
Elektroden
G
S
Isolator
D
O F E T- K E N N L I N I E
3
Drain−Strom / µA
ABB. 3
Halbleiter
2,5
2
2,5
1
0,5
0
Substrat
20
25
30
eignet, die sehr leicht an Luft oxidieren und dabei ihre metallischen Eigenschaften verlieren. Der Einsatz solcher Elektroden erfordert also eine effiziente Verkapselung, die bei
der Herstellung von organischen Leuchtdioden (OLEDs)
und organischen Photovoltaikzellen (OPV) bereits eingesetzt wird.
se Art von Ladungsträgertransport findet sich typischerweise in gedruckten Halbleiterschichten. Abbildung 5 vergleicht exemplarisch OFET-Stromkennlinien aus diesem Modell mit gemessenen Kennlinien. Die Originalmessung ist
durch die schwarze Kurvenschar dargestellt und die Modellierung mit VRH als rote Kurvenschar. Man erkennt die
recht gute Übereinstimmung.
In der Industrie und im entsprechenden akademischen
Umfeld ist das Interesse an derartigen Simulationen hoch.
In dem von der EU geförderten Projekt ORICLA und dem
vom BMBF geförderten Projekt POLYTOS zum Beispiel werden hier wichtige Forschungsarbeiten für RFID- oder Sensor-Anwendungen geleistet, mit Fokus auf ihre drucktechnische Herstellung.
O RG A N I S C H E H A L B L E I T E R
R
S
*
n
Poly(3-alkylthiophen)
Ar
*
R
R
Polyfluoren-Derivat
*
n
*
*
R
n
PPV-Derivat
Beispiele für organische Halbleiter: Polymere mit konjugierten Doppelbindungen.
R steht für Rest, n deutet die n-fache Wiederholung der dargestellten Monomere in
Polymeren an.
230
15
Vergleich zwischen einer gemessenen OFET-Kennlinie
(schwarz) und ihrer Modellierung durch das VRH-Modell (rot).
Elektrische Simulation
S
10
Aufbau eines organischen Feldeffekt-Transistors (OFET) mit
Source (S)-, Drain (D)- und Gate-Elektrode (G).
Bei der Optimierung von Druckprozessen und bei der Entwicklung von gedruckten Schaltungen ist die elektrische
Simulation der so hergestellten Bauelemente ein wichtiges
Hilfsmittel. Deshalb hat man für Transistoren in der Polymerelektronik theoretische Modelle entwickelt, um die speziellen Transportmechanismen für die Ladungsträger in der
Halbleiterschicht zu beschreiben. Da verschiedene Herstellungsprozesse zu unterschiedlichen Transportmechanismen führen können, eignen sich nicht alle Modelle für
alle Prozesstechnologien gleichermaßen.
Ein Beispiel ist das Modell des Variable-Range-Hoppings
(VRH-Modell). Es wurde speziell für einen Transportmechanismus entwickelt, in dem die Ladungsträger thermisch
aktiviert zwischen lokalisierten Zuständen tunneln [6]. Die-
*
5
Source−Drain−Spannung / V
VDS
ABB. 4
0
Phys. Unserer Zeit
5/2013 (44)
www.phiuz.de
Der Herstellungsprozess
Die gedruckte Elektronik hat gegenüber der konventionellen Siliziumelektronik den Hauptvorteil, dass man Polymerelektronikbauteile wesentlich einfacher und schneller
herstellen kann. Die Polymerelektronik braucht weder
hochsaubere Reinräume noch aufwendige, Energie fressende Vakuum- und Hochtemperaturprozesse. Es gibt zwar
verschiedene Ansätze zur Herstellung von Polymerelektronik, die teilweise auch Vakuumprozesse wie Aufdampfen
oder Sputtern enthalten. Die Drucktechnik ist jedoch der
wirtschaftlich vorteilhaftere und daher aussichtsreichste
Prozess.
Die grundlegende Funktionsweise organischer Transistoren ist sehr einfach und mit derjenigen von herkömmlichen Dünnfilm-Transistoren durchaus vergleichbar [1]. Die
für die verschiedenen Transistorebenen benötigten Materialien lassen sich, vom Substrat abgesehen, in kommerziell
erhältlichen organischen Lösungsmitteln lösen. Man kann
sie deshalb als elektronische Tinte aufbringen, zum Beispiel
durch additives Drucken, also übereinander geschichtet. Es
muss dabei natürlich sichergestellt sein, dass die eingesetzten Lösungsmittel nicht die darunter liegenden Schichten
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
GEDRUCK TE ORGANISCHE ELEK TRONIK
f ∝µ⋅
U DS
L2
beschrieben, wobei UDS die am Transistor angelegte Spannung ist. Je kürzer die Kanallänge L ist, also der Abstand zwischen den Source- und Drain-Elektroden, und je höher die
Ladungsträgerbeweglichkeit µ ist, desto schneller schalten
die Transistoren. Die Kanallänge wird durch die Prozesstechnik begrenzt, wohingegen die Ladungsträgerbeweglichkeit im Wesentlichen eine Materialeigenschaft ist. Da
die Kanallänge sogar quadratisch eingeht, erhöht also eine
Miniaturisierung der Halbleiterstrukturen die Schaltfrequenz besonders wirksam.
Über die Auflösung des Druckverfahrens kann man also die Leistungsfähigkeit eines OFETs beeinflussen. Über
optische Aspekte hinaus stellt die gedruckte Elektronik jedoch noch weitere Anforderungen an die Drucktechnik. Einerseits benötigt man zusammenhängende feine Linien als
Leiterbahnen, andererseits klar voneinander getrennte Bereiche ohne direkten elektrischen Kontakt, um Kurzschlüsse zu vermeiden.
Die Herstellung von gedruckter Elektronik hat zudem
den großen Vorteil, dass man durch einen ausgeklügelten
Einsatz von hochpräzisen, kontinuierlichen Rolle-zu-RolleProzessen verschiedenartige elektronische Bauteile quasi in
einem Druckdurchlauf herstellen kann (Abbildung 6). Dazu zählen Transistoren, Kondensatoren, Speicherelemente,
Dioden oder vertikale Durchkontakte (Vias) zwischen den
gestapelten Schichten. Jede in Abbildung 6 gezeigte Schicht
besitzt eine bestimmte elektrische Funktion, sie ist zum Beispiel isolierend, leitfähig oder halbleitend. Daher kann man
nicht, wie in der Druckwelt üblich, einfach Zusätze zur Anpassung der Druckparameter beifügen, da diese in der Re© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ABB. 6
G E D R U C K T E E L E K T RO N I K
Top-Elektroden
Dielektrikum
• organischer Halbleiter;
ferroelektrisches Material
•
•
•
Boom- Elektroden
Polyester-Substrat (PET)
Widerstände,
Leiterbahnen
Kondensatoren,
Speicherelemente
Dioden,
Photovoltaische Zellen
Transistoren
Durchkontakte (Via)
•
transparente
leiähige Folien
an- oder auflösen. Ist dieses gegeben, so ist es möglich, Elektronik in kontinuierlichen Druckprozessen sehr preiswert
herzustellen, mehr oder weniger wie beim Zeitungsdruck.
Es gibt dabei eine Vielzahl verschiedener Drucktechniken, die man in Hoch-, Tief- und Flachdruck-Verfahren einteilen kann. Diese Unterteilung richtet sich danach, wie das
bildgebende Element, also zum Beispiel eine Druckwalze,
aufgebaut ist. Der Flexodruck gehört zu den Hochdruckverfahren, bei dem das zu druckende Bild als eine erhobene flexible Kunststoffschicht auf der Druckwalze aufgebaut
ist. Der Offsetdruck gehört hingegen zu den Flachdruckverfahren. Dabei ist das zu druckende Bild auf einer flachen
Walze durch unterschiedliche Bereiche definiert, die Wasser abweisend oder aufnehmend sind. In beiden Fällen wird
das gewünschte Abbild über eine strukturierte Platte oder
Rolle auf ein Substrat übertragen.
Die heute üblichen Druckverfahren haben typischerweise Auflösungen oberhalb von 100 µm. Für organische
Schaltungen werden aus schaltungstechnischen Gründen
[1] jedoch Auflösungen unterhalb von 20 µm angestrebt. Ein
Grund ist die mögliche Erhöhung der maximalen Schaltfrequenz eines organischen Transistors. Physikalisch wird
sie durch die Gleichung
TECHNISCHE PHYSIK
Der gedruckte Aufbau aus elektrisch funktionellen Schichten ermöglicht unterschiedliche elektronische Bauteile, die hier exemplarisch nebeneinander gestellt
sind.
gel die elektrischen Eigenschaften stark negativ beeinflussen.
Schließlich ist noch die Registergenauigkeit wichtig.
Diese Größe erfasst die Positioniergenauigkeit der einzelnen
„Farben“ zueinander und ist ein Qualitätsmerkmal für den
Druck. Nur eine hohe Registergenauigkeit ermöglicht ausreichend präzise übereinander liegende, elektrisch funktionierende Strukturen. Beim normalen Druck wird dies heute optisch geprüft. Der Druck elektronischer Schaltungen
erfordert es zudem, dass zusätzlich eine elektrische Kontrolle in den Druckprozess integriert wird. Diese muss ebenfalls bei hohen Druckgeschwindigkeiten zuverlässig funktionieren.
Erste Anwendungen
Gedruckte Elektronik könnte schon bald in vielfältiger Weise neue Anwendungen ermöglichen, wobei erste Anwendungen auf den Markt kommen [7]. Das Ziel ist jedoch
nicht, die herkömmliche Siliziumelektronik zu verdrängen.
Es werden keine hochkomplexen Schaltungen wie Prozessoren angestrebt, sondern eher einfachere Strukturen. Die
kostengünstige Rolle-zu-Rolle-Produktionstechnik soll ganz
neue Märkte eröffnen, bei denen niedrigere Preise und hohe Volumina wichtiger sind als höchste technische Anforderungen. Gedruckte und konventionelle Elektronik werden also auf absehbare Zeit nebeneinander in verschiedenen Bereichen existieren.
Wir wollen hier nun einige Beispiele vorstellen, die unsere Firma herstellt: gedruckte Funketiketten (RFID-Tags)
[8], transparente leitfähige Folien [9] und gedruckte Smart
Objects [10].
Gedruckte Funketiketten
Bei Radio-Frequenz-Identifikationssystemen (Radio-Frequency Identification, RFID) verbreitet ein Sendegerät Funksignale in Form von Radiowellen, und ein Funketikett (Tag)
empfängt diese Signale. Diese berührungslose Informatiwww.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
231
onsübertragung hat gegenüber einem Barcode den Vorteil,
dass ein direkter Sichtkontakt nicht erforderlich ist.
Unsere PolyID-Funketiketten sind passiv. Das bedeutet,
dass sie keine eigene Stromquelle besitzen, sondern über
das Funkfeld des Lesegerätes mit Energie versorgt werden.
Im Funketikett steckt eine Antenne. Diese empfängt die Radiowellen des Senders über induktive Kopplung, wobei die
Radiofrequenz typischerweise bei 13,56 MHz liegt. Die Antenne versorgt eine gedruckte Schaltung, die hauptsächlich
aus einer Abstimmkapazität, einem Gleichrichter und der eigentlichen Logikschaltung besteht. Bei Versorgung mit genügend Energie überträgt die Schaltung ihre gespeicherten
Daten an das Lesegerät zurück [8].
Der Chip basiert auf gedruckten OFETs. Wie wir schon
diskutiert haben, wird deren Funktionalität besonders durch
eine hohe Druckauflösung beeinflusst. Dabei kommt es vor
allem auf kleine Strukturgrößen der unteren Elektrodenebene an, wo die Source- und Drain-Elektroden sitzen. Uns
ist es in den letzten Jahren gelungen, einen effizienten Produktionsprozess für diese Elektroden zu entwickeln. Dieser
ermöglicht auch eine Herstellung von hochaufgelösten dünnen Leiterbahnen durch einen Rolle-zu-Rolle-Produktionsprozess in großem Maßstab [11]. Das neue Verfahren erlaubte uns dann die Entwicklung der nächsten Produkte.
Displayfolien
Für Anwendungen wie Displays, Berührungssensoren oder
auch ultradünne Heizelemente zum Beispiel für Außenspiegel von Autos werden flexible und optisch transparente Folien benötigt, die über eine Beschichtung mit möglichst hoher elektrischer Leitfähigkeit verfügen. Derartige
Anwendungen werden heutzutage oft aus Kunststofffolien
hergestellt, die mit Indiumzinnoxid (Indium Tin Oxide, ITO)
beschichtet sind. Diese Folien müssen dann für eine bestimmte technische Anwendung aufwendig strukturiert
ABB. 8
T R A N S PA R E N T E , L E I T F Ä H I G E FO L I E
leitfähiger Bereich
Beispiel für ein
individuelles Layout
Gap Width
transparentes
PET- Substrat
Kontaktpads und Anschlüsse
200µm
Detailansicht der
leitfähigen Beschichtung
Transparente, leitfähige Folie mit individuellem Layout.
232
Phys. Unserer Zeit
5/2013 (44)
www.phiuz.de
Abb. 7 Transparente, leitfähige Folien mit Strukturen in
hoher Auflösung.
werden. Deshalb gibt es einen großen Bedarf an preislich
attraktiven Alternativen mit möglichst verbesserten Gebrauchseigenschaften.
So eine neue Alternative ist unsere Technologie zur Herstellung von leitfähigen Schichten auf Foliensubstraten. Die
Herausforderung dabei ist die Kombination zwischen ausreichender Transparenz und genügend hoher Leitfähigkeit
der feinen, für das Auge möglichst unsichtbaren Leiterbahnstrukturen. Dazu drucken wir auf dünnen, flexiblen
Folien aus Polyethylenterephthalat (PET) Strukturen in einer typischen Auflösung von etwa 10 µm. So erreichen wir
eine hohe Transparenz über einen breiten Wellenlängenbereich von 400 bis 800 nm im sichtbaren Spektrum.
Die Transparenz und Leitfähigkeit können wir dabei an
die konkrete technische Anwendung anpassen, indem wir
die Breite und Dichte der leitfähigen Strukturen auf der Folienfläche entsprechend designen. Als leitfähiges Material
kommen verschiedene Metalle zum Einsatz. Je nach Anwendung können wir sie über die gesamte Folienlänge und
-breite aufbringen oder in Form einer Bebilderung als individuelles Layout. Hier ist das Rolle-zu-Rolle-Druckverfahren
wesentlich flexibler als die herkömmliche ITO-Technologie (Abbildung 7).
Im Gegensatz zu den brüchigen ITO-Folien ermöglicht
es die hohe Flexibilität unserer Folien, diese in räumlich gekrümmte, kurvige Oberflächen zu integrieren, die dann etwa mit berührungsempfindlichen Bedienelementen versehen sind (Abbildung 8). In der Produktion kann man unsere Folien sogar mit Spritzguss kombinieren, um neue
Designs zu verwirklichen. Das alles zeigt, dass diese Technologie durchaus eine attraktive Alternative zu den etab© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
GEDRUCK TE ORGANISCHE ELEK TRONIK
TECHNISCHE PHYSIK
Abb. 9 Funkaktivierbares Display mit Aktivator. Auf der Vorderseite erscheint das hier gezeigte Bild, sobald die Karte in die
Nähe des Aktivators kommt.
lierten ITO-Folien ist, die damit eine kostengünstige Massenproduktion ermöglicht.
Gedruckte Smart Objects
Unter gedruckten Smart Objects versteht man eine Kombination von verschiedenen Komponenten gedruckter Elektronik. Das können Eingabeelemente sein wie Tastaturen,
Displays, Energiequellen wie Batterien oder Solarzellen,
oder Sensoren und Logikschaltungen. Aus dem Baukasten
dieser Einzelkomponenten kann man eine Vielzahl neuer
Anwendungen realisieren.
So ist es zum Beispiel möglich, durch die Kombination
einer gedruckten Batterie mit einer Logikschaltung, einem
Eingabeelement und einem Display Einwegsensoren, Spiele oder Informationsdisplays aufzubauen. Eine weitere neue
Entwicklung auf dem Gebiet der gedruckten Elektronik sind
durch Funkwellen aktivierbare Displays. Diese kann man
ebenfalls auf dünnen und flexiblen Kunststofffolien mit modernen Rolle-zu-Rolle-Prozessen herstellen.
Als erstes Produkt aus unserer PolyLogo-Reihe wollen
wir ein durch Funk aktivierbares Display vorstellen. Im inaktiven Zustand ist die Information nicht sichtbar. Wie bei
unseren passiven Funketiketten ist das Display durch Energieaufnahme von Radiofrequenzwellen einschaltbar. Dann
zeigt es eine vorher definierte Information an, zum Beispiel
ein Symbol oder Logo [10]. Wir nennen es PolyLogo-RAD,
wobei RAD für Radio-Activated Display steht. Das Aktivierungsgerät arbeitet auch hier mit Funkwellen auf einer typischen RFID-Frequenz (Abbildung 9 links).
Technisch besteht ein solches Smart Object wieder aus
einer Antenne auf einem Kunststoffsubstrat, hinzu kommen
ein gedrucktes elektrochromes Display und die dazugehörige organische Treiberelektronik (Abbildung 9 rechts).
Durch den Einsatz dieser elektrochromen Displays macht
man sich die Möglichkeit zunutze, die optischen Eigenschaften eines Materials durch Anlegen eines elektrischen
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Feldes oder durch Stromfluss zu verändern. Wir setzen dazu bestimmte Kunststoffe ein, die sich reversibel oxidieren
und reduzieren lassen. Je nach Polung entstehen unterschiedliche elektrisch geladene Zustände, die sich stark in
ihrem Absorptionsverhalten unterscheiden. So lässt sich die
Anzeige des Displays schalten.
Bringt man dieses Etikett nun in das Feld des Aktivierungsgeräts, so nimmt sein Schwingkreis, der aus gedruckter Antenne und Kondensator besteht, dessen Funkwellen
auf. Ein Gleichrichter wandelt es in eine für das Display
passende Betriebsspannung um. Der Gleichrichter besteht
aus gedruckten Dioden, die aus konjugierten Polymeren wie
dem anfangs vorgestellten Poly(3-hexylthiophen) aufgebaut
sind. Die Spannung aktiviert das Anzeigeelement. Nimmt
man das Etikett aus dem Funkfeld, so erlischt die dargestellte Information wieder innerhalb einer kurzen Zeitspanne. Sie kann später erneut aktiviert werden.
Am Ende unseres Produktionsprozesses haben wir wieder eine Folienrolle, die mit einzelnen Smart Objects bedruckt ist. Diese Rolle mit den Bauteilen kann man nun bei
der normalen Herstellung von Karten oder Verpackungen
direkt einlaminieren. Da die Folie dünn und flexibel ist, lassen sich Smart Objects so zum Beispiel elegant in Eintrittskarten oder Gutscheine integrieren. Funkaktivierbare
Displays ermöglichen damit völlig neue Anwendungen,
zum Beispiel interaktive Spielkarten, den Schutz von Marken oder Echtheitszertifikate. Die Smart Objects lassen sich
zudem sehr gut im Scheckkartenformat weiter verarbeiten.
Die hier vorgestellten Beispiele zeigen, dass gedruckte
organische Elektronik im Wortsinne äußerst flexibel ist. Die
Kombinationsmöglichkeiten verschiedener gedruckter elektronischer Komponenten, die heute schon zuverlässig funktionieren, ermöglicht eine Fülle von Einsatzmöglichkeiten.
Vielleicht bringt die Zukunft sogar Anwendungen, an die wir
heute noch gar nicht denken.
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
233
Zusammenfassung
Die Autoren
Die gedruckte Elektronik ist eine noch junge Plattform-Technologie, die eine Vielzahl an neuen Produkten ermöglicht. Dabei bringt man über moderne Rolle-zu-Rolle-Druckverfahren
„elektronische Tinten“ auf großflächigen und flexiblen Substraten auf. Schicht für Schicht entstehen elektronische Bauelemente, wie organische Feldeffekttransistoren (OFETs). Deren Schaltfrequenz wächst quadratisch mit der Miniaturisierung des Abstands zwischen Source- und Drain-Elektrode. Für
anspruchsvollere Anwendungen müssen die Druckverfahren
deshalb eine Auflösung und auch Präzision im Mikrometerbereich erreichen. Es gibt bereits funktionierende Funketiketten (RFID-Tags). Weitere Anwendungen sind transparente leitfähige Folien für berührungsempfindliche Displays
und sogenannte Smart Objects.
Stichworte
Gedruckte organische Elektronik, organische Halbleiter,
HOMO, LUMO, organischer Feldeffekt-Transistor, OFET,
Funketikett-Tag, RFID, transparente leitfähige Folien, gedruckte Smart Objects.
Literatur
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
234
Phys. Unserer Zeit
H. Rost, Kunststoffe 2005, 10, 209.
H. Naarmann et al., Synth. Metals 1987, 22, 1.
R. Blache et al., Kunststoffe International 2009, 4, 54.
B. Eckers et al, Physik in unserer Zeit 2013, 44(2), 84.
M. Böhm et al., IEEE International Solid-State Circuits Conference
2006, Digest of technical paper 2006, 270.
M. C. J. M. Vissenberg et al., Physical Review B 1998, 57 (20), 12964.
K. Riethus et al., Technik in Bayern 2012, 3, 16.
H. Rost et al., Kunststoffe 2008, 6, 108.
J. Wörle et al., Kunststoffe 2010, 4, 82.
K. Ludwig, et al., Kunststoffe International 2011, 6, 42.
J. Wörle et al., MRS Bull. 2011, 36 (10), 789.
5/2013 (44)
www.phiuz.de
Henning Rost studierte Chemie und promovierte 1996 an der Universität
Jena. Nach einem Postdoc-Aufenthalt in Cambridge (UK) war er bei Osram
Sylvania (US) und der Siemens AG in Forschung und Entwicklung tätig. Er
arbeitet heute als Senior Project Manager bei PolyIC. Jürgen Krumm studierte
Elektrotechnik an der Universität Erlangen-Nürnberg, wo er als wissenschaftlicher Mitarbeiter am Lehrstuhl für Rechnergestützen Schaltungsentwurf
tätig war. Er arbeitet seit 2005 als Senior Research Scientist bei PolyIC. 2008
erfolgte seine Promotion zum Dr.-Ing. Katrin Riethus studierte Marketing und
Kommunikation. Sie ist bei PolyIC als Product Marketing Manager beschäftigt
und verantwortet den Bereich Öffentlichkeitsarbeit und Marketing. Klaus
Ludwig studierte Elektrotechnik an der Universität Erlangen-Nürnberg.
Ab 1997 arbeitete er bei der Siemens AG an der Forschung und Entwicklung
magnetischer Sensorsysteme. 2004 wechselte er zu PolyIC. Seit 2012 ist er als
Product Manager für „Printed Electronics & Displays“ zuständig.
Anschrift
Katrin Riethus, PolyIC GmbH & Co. KG, Tucherstraße 2, 90763 Fürth.
[email protected]
Webseite
www.polyic.com
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Werbung
DOI: 10.1002/piuz.201301332
Rotation im Sport
Die Sache mit
dem Dreh
S IGRID T HALLER | L EOPOLD M ATHELITSCH
Perfekte Drehungen sind beim Geräteturnen, Trampolin- und
Turmspringen ein Muss. Für manche Techniken liefern fallende
Katzen ein gutes Vorbild.
chwungvolle Übungen im Geräteturnen, auf dem Trampolin oder beim Turmspringen enthalten meist mehrfache Drehungen. Dabei kommt es auf ein geschicktes Ausnützen der Physik und eine ideale zeitliche Koordination an.
Viele Drehbewegungen erfolgen in der Luft, also ohne Kontakt mit dem Sportgerät, und scheinen den physikalischen
Gesetzen zu widersprechen.
In der letzten Folge haben wir die beim Geräteturnen
auftretenden Kräfte vorgestellt (Physik in unserer Zeit 2013,
44(1), 40). Es zeigte sich, dass diese sehr oft zum Steuern
von Drehbewegungen eingesetzt werden. Die auf das Sportgerät ausgeübten Kräfte bewirken dabei Drehmomente, die
den Drehimpuls des Athleten verändern. Bei der Riesenfelge im Reckturnen zum Beispiel steigen die Kräfte bis etwa
2600 N an. Setzt der Sportler sie zeitlich richtig ein, dann
erzeugt er dadurch erst den nötigen Drehimpuls und die nötige Drehgeschwindigkeit – wobei er diese durch die richtige Körperhaltung verstärkt.
S
Für die Berechnung des Drehimpulses ist also die Kenntnis des Trägheitsmoments notwendig: I hängt wesentlich von der Form des Körpers und seiner Dichteverteilung ab. Für einfache homogene Körper wie Kugel,
Zylinder, Quader findet man die entsprechenden Formeln
in Physiklehrbüchern.
Der menschliche Körper hat aber keine einfache Form,
außerdem kann der Sportler während der Bewegung seine
Körperhaltung und damit auch sein Trägheitsmoment ändern. Um diese verschiedenen Trägheitsmomente in den
Griff zu bekommen, wurden zunächst viele Messungen an
Leichen, sowohl ganzen Körpern als auch Körperteilen, vorgenommen. Der russische Biomechaniker Vladimir Zatsiorsky durchleuchtete dagegen lebende Probanden mit schwacher Gammastrahlung und maß so die Massenverteilung
[1]. Tabelle 1 zeigt ausgewählte Beispiele.
Aus der Fülle der bisher gemessenen Daten kann man
mit einfachen Modellen die individuellen Trägheitsmomente
einzelner Personen abschätzen. Man muss zum Beispiel nur
Länge und Umfang eines Unterschenkels wissen und erhält
ABB. 1
SCHEINDREHUNG
Trägheitsmoment, stabile Achsen
Ein Sportler kann sich „im Flug“ drehen, obwohl er keinen
Kontakt zum Sportgerät hat. Wie geht das? Befindet er sich
in der Luft, zum Beispiel beim Abgang vom Reck oder bei
einem Pferdsprung, so wirkt auf ihn nur die Schwerkraft,
wenn man den Luftwiderstand vernachlässigt. Da die Gewichtskraft in seinem Schwerpunkt angreift, entsteht in Bezug auf diesen Punkt kein Drehmoment, und der Drehimpuls bleibt konstant. Anders ausgedrückt bewegt sich der
Schwerpunkt in der Luft auf einer Wurfparabel, und der
Sportler hätte eine konstante Winkelgeschwindigkeit, sofern er physikalisch gesehen ein starrer Körper wäre.
Der Drehimpuls L um eine Achse durch den Schwerpunkt ist ein Vektor in Achsenrichtung. Er hängt von der
Form und Massenverteilung des Körpers, ausgedrückt durch
das Trägheitsmoment I, und von der Winkelgeschwindigkeit ω ab:
Im Uhrzeigersinn v. l. unten n. r. unten: Simulierter Bewegungsablauf einer Scheindrehung in die Rückenlage [8].
L = I · ω.
236
Phys. Unserer Zeit
5/2013 (44)
Online-Ausgabe unter:
wileyonlinelibrary.com
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
R O TAT I O N
dann anhand solcher Tabellen [1] dessen Trägheitsmoment.
Die Trägheitsmomente der Körperteile kann man nun nach
dem Steinerschen Satz zusammensetzen. Hat ein Körperteil
der Masse m das Trägheitsmoment IS um eine Achse durch
seinen Schwerpunkt, so ergibt sich sein Trägheitsmoment
IA um eine dazu parallele Achse im Abstand d durch
IA = IS + m · d.
Betrachtet man den ganzen menschlichen Körper, so ändert sich das Gesamtträgheitsmoment je nach Körperhaltung und Drehachse: Bei einem Salto erfolgt die Drehung
um die Breitenachse (frontale Achse). In gestreckter Haltung
beträgt hier das Trägheitsmoment 10,5 bis 13 kg · m2, in gehockter Haltung etwa 4 bis 5 kg · m2. Bei einer Schraube
oder Pirouette, also einer Drehung um die Längs- oder Transversalachse, liegt das Trägheitsmoment zwischen 1 und 1,4
kg · m2 bei angezogenen Armen sowie 2 und 2,5 kg · m2 bei
gestreckten Armen. Eine Drehung um die sogenannte sagittale Achse, wie zum Beispiel beim Radschlagen, ergibt
ein Trägheitsmoment zwischen 12 und 14 kg · m2. Die Angaben unterscheiden sich mitunter beträchtlich in der Literatur [1–4].
Im freien Flug sind nur die Drehungen um Achsen mit
minimalem oder maximalem Trägheitsmoment, die sogenannten Hauptträgheitsachsen, stabil. Bei einem Salto kann
es daher zu Torkelbewegungen kommen.
Salto und Schraube
Beim Absprung zu einem Salto wird eine Vorwärtsrotation
durch das Abstoßen am Boden erzeugt. Der Sportler hat also zu Beginn bereits einen Drehimpuls. Im Flug kann er die
Drehgeschwindigkeit durch das Anziehen der Arme und
Beine steigern, weil er dadurch das Trägheitsmoment verringert. Knapp vor der Landung streckt er Arme und Beine
wieder aus, das Trägheitsmoment wird größer und die Winkelgeschwindigkeit sinkt für eine sichere Landung. Beim
Bodenturnen werden mehrfache Salti, oft noch mit zusätzlichen Schrauben, gesprungen. Eine Abschätzung des dafür
benötigten Drehimpulses, der Drehgeschwindigkeit und der
Sprunghöhe wird in „Salto und Schraube“ auf S. 238 präsentiert.
TA B . 1
SPORTPHYSIK
T R Ä G H E I T S M O M E N T E VO N K Ö R PE R T E I L E N
Körperteil
Ilg / 10–4 kg · m2 Iml / 10–4 kg · m2
Fuß
Unterschenkel
Oberschenkel
Hals und Kopf
Rumpf (oberer Teil)
10,3 ± 3,2
64,6 ± 25,0
413,4 ± 106,9
202,4 ± 38,9
1454,5 ± 359,0
40,0 ± 9,0
371,0 ± 90,6
1999,4 ± 453,0
293,9 ± 44,8
705,2 ± 224,2
Beispiele für Trägheitsmomente einzelner Körperteile, bezogen auf die
Längsachse (longitudinal, lg) und eine Querachse (mediolateral, ml,
von der Mitte zur Seite) der Körperteile. Mittelwerte ± Standardabweichung gemessen an hundert männlichen Probanden [1].
mit dem Rücken voraus fallen lässt, kann sich in der Luft ohne Probleme so drehen, dass sie sicher auf ihren Beinen landet [2-7]. Ursprünglich wurde dieses Phänomen damit erklärt, dass die Katze mit dem Schwanz eine heftige Kreisbewegung vollführt. Damit sollte sich der Drehimpuls des
massearmen Schwanzes, der sich mehrfach dreht, mit demjenigen des restlichen Körpers aufheben, der wegen hoher
Masse dann nur eine halbe entgegengesetzte Drehung vollführt.
Experimente mit schwanzlosen Manxkatzen und Kaninchen [7] haben aber gezeigt, dass eine Drehung auch ohne diese ausgleichende Schwanzbewegung möglich ist. Genaue Videoanalysen enthüllen, dass das Tier zuerst seinen
Vorderkörper nach vorne beugt. Mit den vorderen und hinteren Extremitäten macht es gleichsinnige Drehbewegungen, ohne den Körper in sich zu verwinden. Dadurch dreht
es sich insgesamt um 180°, so dass sein Körper nach hinten überstreckt ist. Nun krümmt es seinen Rücken nach
vorne und schafft es, richtig herum zu landen. Sein Ge-
ABB. 2
S C H U LT E RG E L E N K
Scheinrotation
Nun stellt sich die Frage, ob Drehungen auch möglich sind,
wenn man mit Drehimpuls Null abspringt. Kann etwa ein
Turmspringer dann noch eine Drehung beginnen? Oder
kann man seine Drehrichtung sogar während des Fluges
ändern? Bei einer Translationsbewegung ist ja bei Impuls
Null ohne äußere Kraft keine Ortsänderung möglich. Nun
fragen wir uns, ob das Analoge auch für Rotationsbewegungen gilt. Ist bei Drehimpuls Null eine Winkeländerung
ohne von außen wirkendes Drehmoment möglich?
Bei einem starren Körper lautet die Antwort nein. Ein
wohlbekanntes Beispiel zeigt jedoch, dass ein in sich beweglicher Körper dies sehr wohl kann: Eine Katze, die man
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Gesamtmoment, Muskelmoment und Winkelgeschwindigkeit im Schultergelenk
während der Scheindrehung in die Rückenlage [8].
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
237
samtdrehimpuls war zu jedem Zeitpunkt Null, dennoch hat
es seinen Körper gedreht. Der Drehwinkel war also am Ende der Bewegung anders als zu Beginn [7]. Solche Drehungen werden auch Scheinrotationen genannt.
Ähnlich funktioniert die sogenannte Hulabewegung eines Turners an den Ringen: Hängt er in Ruhe senkrecht an
den Ringen, kann er seine Blickrichtung um 180° drehen,
ohne ein dazu nötiges äußeres Drehmoment über die Ringe zu erhalten. Er beugt die Hüfte bei gestreckten Kniegelenken, danach dreht er Oberkörper und Beine entlang ihrer jeweiligen Längsachsen in dieselbe Drehrichtung und
bewegt dabei die Hüfte entlang eines Kreises. Der deutsche
Sportwissenschaftler Falk Hildebrand [4] berechnete die
Anzahl der nötigen Kreisbewegungen für verschiedene
Hüftwinkel, um den Gesamtkörper um 180° zu drehen.
Beugt der Turner seine Hüfte um 20° gegen den Körper, so
benötigt er etwa neun Hulabewegungen. Bei einem stärkeren Abwinkeln von 30° sind es 4,5, bei 40° nur noch 2,9 Bewegungen.
Eine Drehung ohne Drehmoment kann man sich auch
auf einem möglichst reibungsarmen Drehstuhl veranschaulichen: Verdreht man seinen Oberkörper ein Stück im
Uhrzeigersinn, dann drehen sich Unterkörper und Stuhlkissen in die entgegengesetzte Richtung, so dass der Gesamtdrehimpuls Null bleibt. Nun kann man das Trägheitsmoment des Oberkörpers durch Ausstrecken der Arme ver-
SA LTO U N D S C H R AU B E
|
Bei einem senkrechten Sprung lässt
sich die Flugzeit aus der Sprunghöhe
berechnen:
T = 2⋅
2h
g .
Springt der Turner einen einfachen
Salto, so muss er sich in dieser Zeit T
um nur etwa 300° oder im Bogenmaß
5π/3 drehen, weil er jeweils schräg
abspringt und landet. Den dazu nötigen Drehimpuls
L= I⋅
5π
3T
erzeugt er durch Abstoßen vom Boden.
Nimmt man als Sprunghöhe 80 cm an,
so beträgt die Flugzeit etwa T = 0,81 s.
Bei einem gestreckten Salto rückwärts
mit dem Trägheitsmoment I1 = 12 kg ·
m2 ergibt sich ein benötigtes Drehmoment von L = 77,5 kg · m2 · s–1.
Bei konstantem Drehimpuls L und
zeitabhängigem Trägheitsmoment I(t)
ist die Winkeländerung in rad gegeben
durch
dϕ =
238
Zieht der Turner nach t = 0,2 s die
Beine an, verringert sich das Trägheitsmoment auf I2 = 4,5 kg · m2, und er
kann mit dem oben berechneten
Drehimpuls einen Doppelsalto um
den Winkel
L
L
dϕ = I ⋅ t + I ⋅ (T − t ) = 11,8 rad
1
2
oder 676° durchführen.
Eine Schraube wird oft durch das
einseitige Anlegen eines Armes
eingeleitet und bewirkt eine Drehung
des Körpers um etwa α = 10° um die
sagittale Achse (selbe Achse wie beim
Radschlagen). Der Gesamtdrehimpuls
L ist nicht mehr parallel zur SaltoAchse, er kann in Drehimpulskomponenten in die drei Hauptachsen zerlegt
werden. Die Komponente in Richtung
Körperlängsachse ist L1 = L · sin α und
mit Il = 1 kg · m2 ergibt sich für die
Dauer einer Schraubendrehung:
Tl =
2π ⋅ I l
Ll = 0,47 s.
∫ I (t ) dt .
L
Phys. Unserer Zeit
5/2013 (44)
www.phiuz.de
größern. Damit rotiert der Oberkörper beim Zurückdrehen
um einen kleineren Winkel als vorher, und am Ende hat
man seine Blickrichtung im Uhrzeigersinn verschoben.
Drehmomente in den Gelenken
Bei jeder sportlichen Bewegung treten Drehungen in den
Gelenken auf. Auch hier muss wieder ein Drehmoment wirken. Solche Drehmomente kann man per Video erfassen
und aus den Positionen von angebrachten Markern Winkelgeschwindigkeit und Winkelbeschleunigung errechnen.
In erster Linie erzeugt die Muskulatur, die über das Gelenk
zieht, diese Drehmomente.
Hinzu kommen die Drehmomente von äußeren Kräften
wie der Schwerkraft oder von Kräften, die durch die Bewegung angrenzender Gelenke entstehen. Auch die Masseverteilung der involvierten Körperglieder spielt mit. Stellt
man sich zum Beispiel gerade hin und beugt den Unterarm
um 90°, dann befindet sich das Ellbogengelenk nicht mehr
senkrecht unter der Schulter. Lässt man nun den Unterarm
herunterfallen, verschiebt sich der Schwerpunkt im Arm so,
dass sich der Ellbogen nach vorne bewegt. Das bewirkt eine Drehung im Schultergelenk, an der aber keine Schultermuskeln beteiligt sind. Man spricht hier von „Nichtmuskelkräften“.
In der Sportpraxis ist die Unterscheidung, wodurch die
Drehmomente in den Gelenken verursacht werden, sehr
wichtig. Der Trainer sieht die Bewegung des Gelenks von
außen, nur der Sportler weiß, welche Muskeln er bewegt.
Will der Trainer zum Beispiel den Sportler anweisen, dass
er ein bestimmtes Gelenk beugen soll, so kann es sein, dass
der Sportler nur die Streckmuskulatur etwas weniger einsetzen muss. Oft ist sogar Muskelkraft nötig, um ein Gelenk
ruhig zu halten.
Damit kommen wir nochmals zur Riesenfelge am Reck
zurück. In der letzten Folge dieser Reihe haben wir festgestellt, dass die Kraft, die diese Drehung beschleunigt, durch
Anziehen der Beine erzeugt wird. Der Athlet verringert so
sein Trägheitsmoment. Dieses Anziehen erfolgt aber entgegen physikalischen Prinzipien nicht am untersten Punkt unter der Reckstange, sondern knapp danach. Der Grund dafür sind wieder Drehmomente, die nicht durch die Hüftbeugemuskulatur erzeugt werden und die daher die
Bewegung für den Sportler einfacher machen.
Die Unterscheidung von Trainersicht und Sportlersicht
enthält physikalisch gesehen noch eine weitere Schwierigkeit: Der Trainer befindet sich (fast) in einem Inertialsystem,
im drehenden System des Sportlers treten dagegen Scheinkräfte auf. Die Sportwissenschaftler Martin Sust und Gong
Bing Shan [8, 9] untersuchten den Zusammenhang von Außen- und Innensicht und der beobachteten Drehmomente
anhand einer Scheindrehung im Trampolinsprung. Dabei
springt der Sportler gerade in die Höhe und leitet in der Luft
eine geeignete Bewegung ein, um auf dem Rücken zu landen (Abbildung 1). Er hat also am Anfang Drehimpuls Null,
und das bleibt in der Luft auch so. Er führt also wie eine
Katze eine Scheindrehung durch.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
R O TAT I O N
Aus der gemessenen Bewegung wurden das Gesamtdrehmoment und das von den Muskeln erzeugte Drehmoment in einzelnen Gelenken berechnet. Betrachtet man zum
Beispiel die Summe der wirkenden Drehmomente im Schultergelenk und die dazugehörigen Winkelgeschwindigkeiten
(Abbildung 2), so fällt auf, dass bei den Maxima der Geschwindigkeiten die Drehmomente nicht null sind. Da sich
in den Gelenkdrehungen das Trägheitsmoment nicht ändert, ist das scheinbar ein Widerspruch zur Physik. Die Auflösung liegt wieder im gewählten Bezugssystem. Es ist kein
Inertialsystem und daher wirken Scheinkräfte.
Solche Simulationen können auch Auskunft über kritische Phasen in der Bewegung geben: Ändert man die Anfangsposition der Hüfte ein wenig, so dass sie nicht überstreckt ist, lässt sich diese Drehung in die Rückenlage nicht
mehr durchführen [8, 9].
SPORTPHYSIK
Literatur
[1] V. M. Zatsiorsky, Kinetics of Human Motion, Human Kinetics Pub
Inc., Champaign (Illinois) 2002.
[2] C. Frohlich, Am. J. Phys. 1979, 47(7), 583.
[3] C. Frohlich, Scientific American 1980, 242 (3),113.
[4] F. Hildebrand, Eine Analyse der Drehbewegungen des menschlichen
Körpers, Meyer&Meyer, Aachen 1997.
[5] K. Wiemann, Sportunterricht 1987, 36, 409.
[6] J. R. Galli, The Physics Teacher 1995, 33, 404.
[7] J. E. Fredrickson, The Physics Teacher 1989, 27, 620.
[8] M. Sust et al., Spectrum der Sportwissenschaften 2003, 15, 34.
[9] G. Shan et al, Kinesiology 2004, 36, 5.
Die Autoren
Zusammenfassung
Perfekte Drehungen sind beim Geräteturnen, Trampolin- und
Turmspringen ein Muss. Besonders interessant sind Scheindrehungen, für die fallende Katzen ein gutes Vorbild sind. Dabei bewegen sich Sportler mit einem Gesamtdrehimpuls Null
durch die Luft. Durch bestimmte Bewegungen können sie
trotzdem ihren Körper drehen. Aus physikalischer Sicht interessant ist zudem, dass Sportler sich bei Drehungen nicht in
Inertialsystemen befinden. Es treten Scheinkräfte auf, die sie
gezielt nutzen können, um Muskelkraft zu sparen.
Sigrid Thaller und Leopold Mathelitsch verfassen seit 2006 die Reihe
„Sportphysik“.
Anschrift
Ao. Univ.Prof. Dr. Sigrid Thaller, Institut für Sportwissenschaft,
Karl-Franzens-Universität Graz, Mozartgasse 14/I, A-8010 Graz, Österreich.
[email protected], [email protected]
Stichworte
Drehungen, Scheindrehungen, Nichtmuskelkräfte, Geräteturnen, Trampolin, Turmspringen.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
239
DOI: 10.1002/piuz.201301343
Manchmal hilft nur Trägheit
H. J OACHIM S CHLICHTING | C HRISTIAN U CKE
Was auf den ersten Blick wie ein simples Geduldsspiel
erscheint, ist in Wirklichkeit ein raffiniertes physikalisches
Spielzeug: die Kugelwippe. Was mit Geduld nur sehr schwer
zu erreichen ist, gelingt mit einem physikalischen Trick.
Abb. 1 Eine
Kugelwippe, bei
der die beiden
Kugeln in die
höher gelegenen
Nischen befördert
werden müssen.
240
inen richtigen Namen hat das Spielzeug nicht. In
Deutschland ist es manchmal unter dem Namen Kugelwippe bekannt. Im englischsprachigen Raum wird es unter
anderem Moses Cradle oder The Original 2 Balls Trick genannt. Das Spielzeug besteht in den meisten Ausführungen
aus einem flachen Halbzylinder mit einer transparenten Abdeckung (Abbildung 1). Innen befinden sich zwei Kugeln,
die normalerweise im Minimum des Potentialtopfes liegen,
meist durch eine kleine Barriere voneinander getrennt. An
beiden Seiten der höchsten Stelle besitzt die Kugelwippe
zwei kleine Mulden, in die – und das ist das Ziel des Spiels –
die beiden Kugeln befördert werden sollen.
Da Magnete nicht erlaubt sind, kann das ziemlich
schwierig werden, zumindest wenn man es mit Schütteln
versucht. Denn sobald man sich nach gelungenem Einlochen der einen Kugel der anderen zuwendet, kullert die
erste Kugel wieder aus ihrem Loch heraus, und das Spiel beginnt von vorn.
Besinnt man sich allerdings auf die physikalischen Möglichkeiten der Kugeln, so kommt man vielleicht auf die Idee,
dass es auch extrem einfach gehen kann. Denn es genügt,
die Wippe mit Daumen und Zeigefinger in schnelle Rotation
um die senkrechte Achse zu versetzen. Die Kugeln begeben
sich dann gewissermaßen freiwillig, sprich mit physikalischer Notwendigkeit, in Sekundenschnelle in die höhere
Position. Daher rührt auch die Bezeichnung One Second
Puzzle. Wie kommt es dazu?
Gehen wir zunächst von einer etwas einfacheren Vorrichtung aus, bei der der Boden der Wippe flach wäre. Man
hätte es also mit einer Rinne zu tun, die man sich durch ein
kurzes, beidseitig offenes Rohr realisiert denken kann. Platziert man nun eine Kugel etwa in die Mitte des Rohres und
setzt dieses wie die Wippe um eine senkrechte Achse durch
die Mitte in Drehung, so schießt die Kugel aus der einen
oder anderen Öffnung des Rohres heraus. Läge die Kugel
genau in der Drehachse, so würde sie dort auch während
der Drehung liegen bleiben. Das ist aber eine labile Gleichgewichtslage, und weil sie praktisch immer ein wenig von
der Mitte entfernt ist, wird sie durch die widerständige Rohrwand in Bewegung gesetzt. Aus Trägheit hat sie die Tendenz, sich geradlinig gleichförmig weiterzubewegen. Des-
E
Phys. Unserer Zeit
5/2013 (44)
Online-Ausgabe unter:
wileyonlinelibrary.com
halb entfernt die Kugel sich immer weiter tangential von
dem Kreis, auf dem sich die Stelle um das Drehzentrum bewegt, an der sie sich gerade befindet. Auf diese Weise gelangt sie immer weiter zu einer Öffnung des rotierenden
Rohres und verlässt es schließlich mit einer erstaunlich hohen Geschwindigkeit.
In der Wippe sind die Verhältnisse ähnlich. In diesem
Fall wird die spiralförmige Bewegung vom Drehzentrum
weg aber zusätzlich dadurch erschwert, dass der Boden
halbkreisförmig nach oben gekrümmt ist. Dadurch erfährt
die Kugel durch die Gravitation eine Hangabtriebskraft, die
ihrem Weg nach außen entgegenwirkt. Wenn die Drehgeschwindigkeit groß genug ist, schafft sie es trotzdem, so
weit an der gekrümmten Wand der Mulde aufzusteigen, bis
sie in der vorgesehenen Nische landet.
In der praktischen Ausführung sind die Kugeln in ihrer
Ausgangsposition durch eine kleine Wand voneinander getrennt. Dadurch soll erreicht werden, dass jede Kugel in jeweils einer eigenen Nische eingelocht wird. Wenn man diese Wand entfernt, landen häufig beide Kugeln in derselben
Mulde, was gegen die Spielregeln verstoßen würde.
Für weitergehende experimentelle Untersuchungen ist
die Kugelwippe ungeeignet. Seit vielen Jahren wird jedoch
von der physikalischen Lehrmittelindustrie unter der Bezeichnung Kugelschwebe ein Gerät angeboten, das der
Kugelwippe weitgehend gleicht. Sie kann mit einem Motor
auf verschiedene Winkelgeschwindigkeiten ω beschleunigt
werden. Obwohl es nur zum Nachweis der Proportionalität zwischen Zentrifugalkraft und Masse vorgesehen ist, kön© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
K U G E LW I P P E
Im Laborsystem bewegt sich die Kugel auf einer dreidimensionalen Bahn, deren quantitative Beschreibung sehr
kompliziert ist. Man kann das Problem aber stark vereinfachen, indem man sich mit der rotierenden Wippe mitbewegt denkt. In diesem System wandert die Kugel nur noch
an der runden Innenwand der Wippe auf oder ab und bleibt
bei konstanter Geschwindigkeit auf einer bestimmten Höhe liegen (Abbildung 2).
In diesem Fall muss der Einfluss der Drehung durch eine Trägheitskraft, die Zentrifugalkraft FZ, berücksichtigt wer-
den. Sie wirkt gemeinsam mit der Schwerkraft Fg so auf die
Unterlage, dass durch sie eine elastische Reaktionskraft Fe
provoziert wird und ein Kräftegleichgewicht entsteht: Die
Kugel kommt infolgedessen in der entsprechenden Höhe an
der gekrümmten Wand zur Ruhe. Diese durch die Entfernung x von der Drehachse oder den Auslenkungswinkel α
charakterisierte Lage ist lokal gesehen stabil. Mit einer mathematischen Analyse kommt man der Sache auf den Grund.
Wir wollen an dieser Stelle lediglich das Ergebnis präsentieren, die Herleitung finden Sie auf www.phiuz.de unter
Special Features, Zusatzmaterial zu den Heften.
Betrachtet man die potentielle Energie (Potential U) der
Kugel als Funktion des Drehwinkels α, so fällt im Ruhezustand und bei kleinen Drehgeschwindigkeiten das Minimum
der Wippe mit dem Minimum der potentiellen Energie zusammen (Abbildung 3). Da die Kugel stets diesem Potentialminimum zustrebt, verbleibt sie zunächst im Nullpunkt.
Mit zunehmender Geschwindigkeit wird U jedoch wegen
des wachsenden Einflusses der Trägheitskraft immer flacher. Bei der kritischen Winkelgeschwindigkeit ω c = g / r
bilden sich plötzlich zwei lokale Minima aus, während das
frühere Minimum zum lokalen Maximum wird. Bei weiterer Zunahme von ω werden die Minima von U immer ausgeprägter und wandern zu höheren Werten von α. Die
Kugel wird nun – bildlich gesprochen – in eines der Minima „hineinrollen“. Welche Seite sie wählt, bleibt dem Zufall überlassen. Der Verlagerung der Minima zu höheren
Werten von α entspricht die zunehmende Höhe beziehungsweise Entfernung x der Ruhelage der Kugel (Abbildung 2).
Die Abhängigkeit des Ruhewinkels α0 von der Winkelgeschwindigkeit ω (Abbildung 4) zeigt deutlich, wie durch
eine kontinuierliche Erhöhung eines Kontrollparameters zunächst überhaupt keine Änderung des Ordnungsparameters auftritt. Erst bei einem kritischen Punkt wird plötzlich
die Symmetrie des Systems gebrochen, und der Ordnungs-
ABB. 2
E F F E K T I V E S P OT E N T I A L
Beschreibung im mitbewegten System
DY N A M I S C H E S G L E I C H G E W I C H T
ABB. 3
ABB. 4
u
S
0,6
α
r
ω = ωc
0,4
ω > ωc
Fe
x
0,2
FZ
FG
GLEICHGEWICHTSWINKEL
50
30
10
-60
30
60
90
α
1,0
Schnitt durch die rotierende Wippe. Dynamisches Gleichgewicht zwischen den Kräften.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Download
ω < ωc
α0/Grad
nen mit ihr alle genannten Phänomene auch quantitativ untersucht werden.
Beim Experimentieren macht man die interessante Entdeckung, dass die Kugel bei kleinen Winkelgeschwindigkeiten zunächst keine Anstalten macht, ihre stabile Minimumlage zu verlassen. Erst wenn eine kritische Winkelgeschwindigkeit ωc überschritten wird, beginnt sie plötzlich
in dem einen oder anderen gekrümmten Schenkel der Kugelschwebe aufzusteigen und dort in einer dem jeweiligen
ω entsprechenden Höhe zu verharren. Dies entspricht einem Gleichgewichtswinkel α0 (Abbildung 2).
Mit zunehmender Winkelgeschwindigkeit nehmen Höhe und Auslenkungswinkel α0 zu. Wir haben es hier also mit
der merkwürdig erscheinenden Verhaltensweise zu tun,
dass die Kugel durch langsame Erhöhung von ω zunächst
überhaupt nicht reagiert und dann plötzlich ab einer kritischen Winkelgeschwindigkeit ωc beginnt, an Höhe zu gewinnen und dort genauso stabil festsitzt wie im Zustand
der Ruhe im Minimum der Mulde. Man kann sich rein anschaulich überlegen, dass ωc umso kleiner ist, je flacher die
Wippe, also je größer der Radius r der Wippe ist. Da die Kugel außerdem gegen die Schwerkraft anrollen muss, ist ω c
außerdem umso kleiner je kleiner die Erdbeschleunigung
ist. Die Rechnung ergibt ω c = g / r .
S P I E LW I E S E
Effektives Potential U als Funktion der Auslenkung α für (von oben nach unten) zunehmende Drehgeschwindigkeiten. Bei der
kritischen Drehgeschwindigkeit ω c wird die
Symmetrie gebrochen. Es entstehen zwei
neue Minima.
www.phiuz.de
2,0
ω 2/ωc2
Der Gleichgewichtswinkel α 0 der Wippe als
Funktion des Quadrats der Drehgeschwindigkeit ω 2 in Einheiten von ω c2 (nur die positive
Lösung ist eingezeichnet).
5/2013 (44)
Phys. Unserer Zeit
241
ABB. 5
KU G E L I M R I N G
Perle am Ring
(links), gefangene
Münze (rechts).
parameter nimmt einen endlichen Wert an, der bei weiterer Erhöhung des Kontrollparameters weiter anwächst. Dies
ist ein typisches Verhalten komplexer dynamischer Systeme,
wie es in ganz ähnlicher Form bei Phasenübergängen in
Vielteilchensystemen beobachtet wird.
Von der Wippe zum Perlenring
Physikalisch gesehen ist die Kugelwippe äquivalent mit einem kreisförmig gebogenen Draht, auf dem eine leicht bewegliche Perle aufgefädelt wurde (Abbildung 5a). Bringt
man die Drahtenden leichtläufig (Kugellager) in einem Griff
unter, so lässt sich der Drahtring durch seitliches Anstoßen
in Rotation versetzen. Die Perle zeigt dann mit noch größerer Deutlichkeit dieselben Verhaltensweisen wie die Kugel in der Wippe.
Bei einer anderen Konstruktion handelt es sich um ein
Pendel mit einer starren Stange, die am oberen Ende mit einem Scharnier die Möglichkeit besitzt, einzuknicken. Bringt
man dieses Pendel beispielsweise durch eine kleine Kurbel
in Rotation, so zeigen sich auch hier in der seitlichen Auslenkung des Pendels dieselben Verhaltensweisen wie bei
der Wippe.
Eine sehr originelle Variante der Kugelwippe ist ein
Schlüsselanhänger aus transparentem Kunststoff, in dem eine Euromünze sicher verwahrt wird (Abbildung 5b). Wer
die Münze herausholen möchte, tut sich schwer. Will man
sie nämlich unter dem Einfluss der Schwerkraft aus dem unteren Schlitz herausbefördern, sind die ebenfalls der Schwere unterliegenden Kugeln schon da und versperren diesen
Weg. Mit dem physikalischen Wissen der Kugelwippe kommen wir leicht weiter. Man fasst den Anhänger am Schlüs-
selring, lässt ihn frei hängen und versetzt mit der anderen
Hand das Objekt in eine schnelle Drehung um die vertikale Achse. Die Kugeln bewegen sich trägheitsbedingt die Rinne hinauf und geben den Durchgang für die Münze frei, die
dann auch herausfällt. Damit sich die Kugeln leicht bewegen können, gibt es darüber eine kleine Vertiefung, in der
die Münze gehalten wird und während der Rotation nicht
auf die Kugeln drückt. Wenn während der Rotation die Bahn
frei ist, genügt ein kleiner seitlicher Stoß, um die Münze aus
der Vertiefung heraus zu befördern, so dass sie frei aus dem
Schlitz herausfallen kann.
Schließlich sei noch ein transparenter Kunststoffkreisel
erwähnt, der bunte Kugeln enthält (Abbildung 6). Bringt
man ihn in genügend schnelle Drehung, so bewegen sich
die Kugeln nach einer anfänglichen Phase des Durcheinanders an der inneren Wand des Kreisels hoch und verharren
für eine Weile in dieser Position. Anders als bei der Kugelwippe gelangen sie in keine Nische, sondern „hängen“ gewissermaßen frei an der Wand. Genau genommen sind sie
nicht ganz frei, sondern sie „kleben“ auch noch unter der
Decke, die sie daran hindert, der Geschwindigkeit entsprechend noch höher zu „klettern“. Dadurch bleiben sie so
lange in dieser Position, bis der Kreisel schließlich die kritische Winkelgeschwindigkeit unterschreitet, die zur „Fixierung“ der Kugeln in dieser Höhe mindestens nötig ist.
Dann rollen sie unter dem Einfluss der dann wieder dominierenden Schwerkraft in die Spitze des Kreisels zurück.
Der Kreisel wird dadurch so gestört, dass er – selbst, wenn
er ansonsten noch eine Weile durchgehalten hätte – kurz
danach abstürzt und ausrollt. Man erkennt leicht, dass sich
die Kugeln im Kreisel im Prinzip auf dieselbe Weise nach
oben bewegen wie jene in der Kugelwippe.
Zusammenfassung
Das Verhalten der Kugel in der Wippe ist ein dreidimensionaler Bewegungsvorgang. Quantitativ lässt sich dieser einfacher
beschreiben, wenn die Bewegung der Kugel mit einigen Idealisierungen im mitbewegten Bezugssystem betrachtet und auf
einen zweidimensionalen Vorgang reduziert wird. Es zeigt
sich, dass zu jeder Drehgeschwindigkeit eine bestimmte Höhe gehört, an der die Kugel sich in einem Minimum der Energie befindet.
Stichworte
Kugelwippe, Kugelkreisel, rotierendes Bezugssystem.
Bezugsquelle
Im Internethandel beispielsweise unter www.hund-hersbruck.de.
Die Autoren
Hans-Joachim Schlichting und Christian Ucke sind die Begründer unserer
Rubrik Spielwiese.
Abb. 6 Hohlkreisel mit Kugeln,
links in Ruhe,
rechts in Drehung.
242
Phys. Unserer Zeit
Anschrift
Prof. Dr. Hans Joachim Schlichting, Didaktik der Physik, Universität Münster,
48149 Münster, [email protected]. Dr. Christian Ucke,
Rofanstraße 14B, 81825 München, [email protected].
5/2013 (44)
www.phiuz.de
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Werbung
DOI: 10.1002/piuz.201301333
Photoakustische Bildgebung
Ultraschall aus Licht
G ÜNTHER PALTAUF
Optische Bildgebung in der Medizin ist wegen der starken
Lichtstreuung in biologischem Gewebe meist auf Körperoberflächen beschränkt. Der photoakustische Effekt macht tiefere
Bereiche zugänglich, indem er mit Licht dort über Absorption
Ultraschall erzeugt. Diese Methode kann zum Beispiel Blutgefäße besser sichtbar machen als andere bildgebende
Verfahren.
ichtinvasive bildgebende Verfahren zählen heute zu
den wichtigsten Hilfsmitteln der modernen Medizin.
Sie liefern tiefe Einblicke in Bereiche des Körpers, die für
visuelle Untersuchungen nicht zugänglich sind. Schuld daran ist vor allem die starke Lichtstreuung. Daher weicht
man für die nichtinvasive Bildgebung in andere Bereiche des
elektromagnetischen Spektrums aus, etwa in den Röntgenoder Radiowellenbereich, oder setzt auf die Akustik in Form
von Ultraschallwellen. All diese Wellen haben gemeinsam,
dass sie in biologischem Gewebe relativ wenig gestreut werden, aber doch so viel Wechselwirkung erfahren, dass sie Informationen aus dem Inneren des Körpers transportieren
können.
Doch auch Licht dringt recht tief in den Körper ein.
Diffus kann es problemlos durch eine einige Millimeter dicke Gewebeschicht hindurch schimmern, wie man mit einem Laserpointer leicht selbst prüfen kann. Dieses diffuse
Licht kennen wir von dichtem Nebel: Mitten in ihm ist es
zwar hell, aber wir können die Sonne nicht sehen, weil ihr
Licht auf dem Weg zu unseren Augen mehrfach diffus gestreut wurde. Dennoch wird Licht in der Bildgebung verwendet, und zwar im Bereich der sogenannten ballistischen
Lichtausbreitung. Das ist jene Tiefe, in die das Licht eindringt, ohne die „Erinnerung“ an seine ursprüngliche Ausbreitungsrichtung verloren zu haben, siehe Zusatztext „Weiteres zum photoakustischen Effekt“ auf www.phiuz.de,
Special Features/ Zusatzmaterial zu den Heften).
Um bei unserem Bild zu bleiben, ist das jener Bereich,
in dem man die Sonnenscheibe noch erkennen kann, also
relativ nahe der Obergrenze der Nebelschicht. In biologischem Gewebe ist das abhängig von der Lichtwellenlänge
eine Schicht von bis zu etwa 1 mm Dicke, in der man hoch
aufgelöste Bilder mit optischer Kohärenztomographie gewinnen kann. Tiefer, im diffusen Bereich, ist es extrem
N
Download
244
Phys. Unserer Zeit
5/2013 (44)
Online-Ausgabe unter:
wileyonlinelibrary.com
schwierig, direkt mit Licht Bilder aus dem Gewebe aufzunehmen.
Photoakustische Bildgebung
Die photo- oder optoakustische Bildgebung geht einen anderen Weg. Sie detektiert nicht Licht, sondern eine durch
Licht hervorgerufene Erwärmung [1]. Befindet sich eine optisch absorbierende Struktur in einiger Tiefe unter der Gewebeoberfläche, so kann diese aus eingestrahltem Licht
Energie aufnehmen, was in der Regel in einer Temperaturerhöhung resultiert. Dabei ist es relativ egal, dass dieses
Licht auf dem Weg durch das darüber liegende Gewebe
mehrfach gestreut wurde. Entscheidend ist die Frage, wie
diese Temperaturerhöhung messbar wird.
Dazu nutzt man den photoakustischen Effekt (eine physikalisch detaillierte Darstellung bietet wieder der Zusatztext auf www.phiuz.de). Am besten kann man diesen Effekt als „frustrierte thermische Ausdehnung“ umschreiben.
Man schickt dazu einen kurzen Lichtpuls, üblicherweise aus
einem Laser, mit einer Dauer von wenigen Nanosekunden
ins Gewebe. An der Stelle, wo das Gewebe ihn hauptsächlich absorbiert, erwärmt es sich so schnell, dass die thermische Ausdehnung nicht mithalten kann. Die Folge ist eine Temperaturerhöhung unter konstantem Volumen, was
den Druck ansteigen lässt (siehe Zusatztext). Dieser Überdruck ist proportional zur deponierten Energiedichte und
somit zum Temperaturanstieg. In Licht absorbierenden
Strukturen wie Blutgefäßen (Abbildung 1) wird dieser
extrem kurze „Druckstoß“ zur Quelle von Ultraschallwellen.
Diese sind an der Gewebeoberfläche messbar, sie liefern
Informationen zur Verteilung der Lichtabsorption im
Gewebe.
Die entscheidende Aufgabe ist die Rekonstruktion eines photoakustischen Bildes aus den gemessenen Schallsignalen. Das erste Ziel ist dabei die Ermittlung der Orte und
Stärken der Schallquellen. Das entspricht der Rekonstruktion der Verteilung der absorbierten Energiedichte nach
dem Laserpuls. Das zweite, viel schwieriger zu erreichende
Ziel ist die Rekonstruktion der Verteilung des optischen Absorptionskoeffizienten. Die Schwierigkeit liegt darin, dass
die Verteilung der Energiedichte sich aus dem Produkt der
Lichtverteilung und dem lokalen Absorptionskoeffizienten
ergibt. Sie ist somit eine nichtlineare Funktion des Absorptionskoeffizienten. Meist gibt man sich daher mit der Rekonstruktion der Energiedichteverteilung zufrieden, da sie
bereits ein gutes Abbild der absorbierenden Strukturen in
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
PHOTOAKUSTISCHE BILDGEBUNG
einem Objekt liefert. Dazu gibt es zwei verschiedene Methoden, die photoakustische Mikroskopie und die photoakustische Tomographie.
ABB. 1
MEDIZINPHYSIK
PH OTOA KU S T I S C H E S M I K ROS KO PI E B I L D I
Kapillaren
Photoakustische Mikroskopie
Die photoakustische Mikroskopie dient vor allem der hochaufgelösten Bildgebung [2]. Dabei wird ein Ultraschalldetektor mit einer akustischen Linse über die Oberfläche des
untersuchten Objekts bewegt (Abbildung 2a). Er registriert
photoakustisch erzeugte Schallwellen nur dann, wenn sie
auf der Achse der Linse innerhalb des Bereichs der Schärfentiefe entstehen. Die Laufzeit eines Signals ergibt den Abstand der Signalquelle von der Linse. Die Bilder entstehen
einfach aus der Aneinanderreihung einzelner Signale, der sogenannten A(mplituden)-Scans. Scannt man mit dem Detektor entlang einer Linie oder im Zickzackmuster über eine Fläche, entstehen zwei- oder dreidimensionale Bilder.
Die Auflösung leitet sich aus den Eigenschaften des
Schallsensors und der akustischen Linse ab. Je höhere Frequenzen der Sensor aufnehmen kann, desto besser löst das
Gerät die Positionen von Schallquellen entlang der Achse
auf. Die laterale Auflösung ergibt sich – wie immer bei einer mit Linsen abbildenden Mikroskopie – aus dem Quotienten der charakteristischen akustischen Wellenlänge und
der numerischen Apertur der Linse. Die charakteristische
Wellenlänge definiert sich dabei über die Mittenfrequenz
des Sensors.
Wir haben bis jetzt die Rolle der Beleuchtung außer
Acht gelassen. Die Probe sollte so beleuchtet werden, dass
in den Fokus der akustischen Linse noch genügend Licht gelangt. Ist der Fokus einige Millimeter tief im biologischen
Gewebe, so ist das Licht dort schon diffus gestreut. Da die
Eigenschaften des Schallsensors die Auflösung bestimmen,
spricht man von photoakustischer Mikroskopie mit akustischer Auflösung (Abbildung 3) [3].
Eine interessante Variante ist die Verwendung eines optischen Mikroskopobjektivs zur Beleuchtung der Probe. Damit kann man innerhalb des optisch ballistischen Bereiches,
also bis in etwa 1 mm Tiefe, eine extrem hohe Ortsauflösung erzielen. Das führt zur photoakustischen Mikroskopie
mit optischer Auflösung (Abbildungen 2b und 1) [4, 5]. Sie
ist auf die geringe Eindringtiefe beschränkt, liefert dort aber
eine laterale Auflösung im Submikrometerbereich.
Aber warum benötigt man überhaupt photoakustische
Mikroskopie bei dieser Eindringtiefe? Dafür gibt es genügend andere optische Methoden wie konfokale Mikroskopie oder optische Kohärenztomographie. Die Antwort ist
der alternative Kontrastmechanismus. Photoakustik ist für
die rein optische Absorption empfindlich, während Fluoreszenz und Lichtstreuung die Kontrastmechanismen der
anderen Methoden sind.
Photoakustische Tomographie
Die photoakustische Bildgebung lässt sich recht gut anhand
eines Gewitters erklären: Der anregende Laserpuls entspricht einem Blitz, die erzeugte Ultraschallwelle dem nach© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Blutzellen
Das photoakustische Mikroskopiebild zeigt winzige Blutgefäße im Mäuseohr
mit hoher optischer Auflösung. Die Vergrößerung zeigt, dass dieses bildgebende
Verfahren einzelne Kapillaren und sogar Blutzellen sichtbar machen kann [4]
(Quelle: L. Wang, Washington U. St. Louis).
folgenden Donner. Tatsächlich handelt es sich auch beim
Donner um thermisch erzeugte Schallwellen. Wollen wir
den Blitz genau lokalisieren, so können wir die bekannte
Schallgeschwindigkeit in Luft nutzen – sowie die Tatsache,
dass Licht sich um einige Größenordnungen schneller ausbreitet als Schall. Wenn wir den Blitz sehen, kennen wir zunächst seine Entfernung nicht. Durch Messung der Zeit vom
Blitz bis zum Eintreffen des Donners können wir diese recht
genau bestimmen, was dem eben beschriebenen Verfahren
der photoakustischen Mikroskopie entspricht.
Sehen wir dagegen den Blitz nicht direkt, weil er hinter
einer Wolke verborgen ist und diese nur diffus erhellt, so
können wir durch die Zeitmessung allein seinen Abstand,
nicht aber die genaue Richtung feststellen. Für eine genaue
Ortsbestimmung sind daher mindestens drei Beobachter an
verschiedenen Positionen notwendig. So arbeitet die photoakustische Tomographie, bei der nicht fokussierte Detektoren zum Einsatz kommen (Abbildung 2c). Für die genaue
Ortung einer einzelnen Schallquelle müssen mindestens
drei Schallsensoren an unterschiedlichen Positionen die eintreffenden Ultraschallsignale messen. Bei einer komplizierteren Verteilung der Schallquellen sind es entsprechend
mehr Sensoren, die idealerweise auf einer geschlossenen
Fläche rund um das zu untersuchende Objekt platziert werden.
Das Verfahren zur Rekonstruktion der so aufgenommenen Verteilung der Energiedichte nennt sich „radiale Rückprojektion“. Es setzt den betrachteten Sensor ins Zentrum
virtueller Kugeln und verteilt die Schallsignale nach möglichen Entstehungsorten auf deren Flächen, wobei der Kugelradius mit der Zeit anwächst (Abbildung 4) [6]. Diese Methode eignet sich gut für größere Objekte. Gegenüber der
Mikroskopie hat sie den Vorteil, dass im günstigsten Fall ein
einziger Laserpuls ausreicht, um mit einer räumlichen Anwww.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
245
ABB. 2
M E T H O D E N D E R PH OTOA KU S T I S C H E N B I L D G E B U N G
Laserpulse
Ultraschall-Detektor
mit akustischer Linse
Objektiv
akustischer
Spiegel
Schallwellen
Laserpulse
a)
akustischer
Fokus
Scan
b)
optischer
Fokus
nicht fokussierter
Detektor
Ultraschall-Detektor
mit Zylinderlinse
Laserpulse
c)
d)
a) Photoakustische Mikroskopie mit akustischer Auflösung. Ein Objekt wird mit kurzen Laserpulsen bestrahlt, und die dabei
erzeugten Schallwellen werden mit einem fokussierten Schallsensor registriert. Der akustische Fokus bestimmt dabei die
Auflösung. b) Photoakustische Mikroskopie mit optischer Auflösung. Die Anregung erfolgt über Laserpulse, die mit einem
Mikroskopobjektiv auf das Objekt fokussiert werden. Die erzeugten Schallwellen werden mit einem akustischen Reflektor auf
einen Schallsensor (blau) abgelenkt. Innerhalb des ballistischen Bereiches der Lichtausbreitung können so Bilder mit optischer
lateraler Auflösung gewonnen werden. c) Dreidimensionale Tomographie. Das Objekt wird mit kurzen Laserpulsen bestrahlt,
die erzeugten Schallwellen registriert ein nicht fokussierter Detektor. Ein Bild wird aus vielen Signalen berechnet, die aus allen
Richtungen um das Objekt aufgenommen werden. d) Zweidimensionale Tomographie. Mit einer zylindrischen akustischen Linse
grenzt man die Aufnahme von Signalen auf eine Fokusebene im Objekt ein. Durch Drehen des Objekts kann man aus den
Signalen ein Bild der photoakustischen Quellen in dieser Ebene rekonstruieren.
ordnung von Sensoren die Information für ein komplettes
dreidimensionales Bild aufzunehmen.
Leider ist es nicht einfach, so eine Anordnung von
Sensoren technisch herzustellen. Betrachten wir dazu das
Problem der photoakustischen Tomographie als eine Art
mathematische Gleichung, dann ist die Verteilung der Energiedichte im Objekt die gesuchte Unbekannte. Genaugenommen sind es viele Unbekannte, eine für jedes Volumenelement (Voxel) im zu untersuchenden Objekt. Beziffern wir diese Voxelzahl mit N 3, wobei eine vernünftige
Annahme N = 100 ist. Für eine Rekonstruktion brauchen
wir dann gleich viele Gleichungen, also Messungen. Das
kann man mit einer Anordnung von N 2 Sensoren auf einer
idealerweise geschlossenen Fläche um das Objekt herum erreichen, wobei jeder Sensor ein Signal zu N Zeitpunkten aufnimmt. Bei unserer Annahme wären das 10 000 Sensoren.
246
Phys. Unserer Zeit
5/2013 (44)
www.phiuz.de
Alle sollen breitbandig und unabhängig auslesbar sein, was
bei dieser Anzahl und Dichte kaum realisierbar ist.
In der Praxis muss man daher Kompromisse eingehen.
Einer ist die Verwendung eines einzelnen Sensors, der um
die Probe herum bewegt wird. Andere Alternativen sind Arrays aus einer kleineren Zahl von Sensoren, die ein Bild mit
limitierter Auflösung liefern oder zur Verbesserung des Rekonstruktionsergebnisses wiederum um das Objekt bewegt
werden. Schließlich besteht auch die Möglichkeit, die Bildgebung auf eine zweidimensionale Schicht zu reduzieren.
Nur über die Beleuchtung ist das allerdings nicht möglich, wegen der diffusen Lichtausbreitung. Daher werden
Sensoren mit zylindrischen akustischen Linsen verwendet,
die kreisförmig um das Objekt angeordnet (oder bewegt)
werden und in eine Schicht fokussiert sind (Abbildung 2d).
Diese Methode ist ein Mittelding zwischen Mikroskopie und
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
PHOTOAKUSTISCHE BILDGEBUNG
ABB. 3
PHOTOAKUSTISCHES MIKROSKOPIEBILD I I
Photoakustisches Mikroskopiebild mit akustischer Auflösung,
das durch Abscannen des quadratischen Bereiches am Handballen gewonnenen ist. Rechts oben: Draufsicht auf den
dreidimensionalen Datenblock, der die Blutgefäße unter der
Haut darstellt. Die grüne gestrichelte Linie zeigt die Position
des im unteren Bild dargestellten Schnitts an. Blutgefäße sind
dort bis zu einer Tiefe von mehr als 1 mm sichtbar [3]
(Quelle: L. Wang, Washington U. St. Louis).
effizienten gefragt sind. Möglich wird das durch die Einbeziehung von Modellen der Lichtausbreitung in den Rekonstruktionsalgorithmus [7]. Eine spektral aufgelöste photoakustische Bildgebung erfordert zudem spezielle Lichtquellen.
Eine große Eindringtiefe des Lichts in biologisches Gewebe erzielt man in dem Wellenlängenbereich, wo die optische Absorption gering ist. Das ist im nahen Infrarotbereich der Fall, etwa zwischen 700 und 1100 nm. Die Absorption von Hämoglobin ist hier nicht besonders hoch;
und auch die Absorption von Wasser, dem dominierenden
Absorber im mittleren Infrarot, ist hier noch niedrig. Fehlende Absorption geht auf Kosten des Kontrasts. Um dieses
Dilemma zu lösen und um noch spezifischere Bilder zu gewinnen, werden auch für die Photoakustik Kontrastmittel
untersucht, wie es sie schon für andere bildgebende Verfahren gibt. Denkbar sind alle Farbstoffe, die in den Körper
eingeschleust werden können. Wegen ihres hohen Absorptionsquerschnitts sind vor allem diverse Nanopartikel Gegenstand intensiver Forschung, zum Beispiel Gold-Nanostäbchen. Gelingt es zudem, diese Absorber gezielt an die
zu untersuchenden Strukturen anzukoppeln, ist das ideale
Kontrastmittel gefunden. Man kann zum Beispiel die Teilchen mit Antikörpern verbinden, die an bestimmte Rezeptoren von Tumorzellen ankoppeln [8].
ABB. 4
PH OTOA KU S T I S C H E TO M O G R A PH I E
Tomographie. Sie verwendet eine Linse, benötigt aber in
der betrachteten Ebene trotzdem eine tomographische Rekonstruktion. Durch die Verringerung der Dimension ist es
möglich, Arrays mit circa hundert Elementen für schnelle
Bildgebung zu bauen.
Laserpuls
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ct1
ct1
Kontrastmechanismus
Der Kontrastmechanismus der photoakustischen Bildgebung ist die optische Absorption. Jedes Objekt, das mehr
Licht absorbiert als seine Umgebung, liefert einen Bildkontrast. In biologischem Gewebe sind die wichtigsten Absorber der Blutfarbstoff Hämoglobin und der vor allem in der
Haut anzutreffende Farbstoff Melanin. Aus dem Gewebeinneren entstehen daher praktisch nur Bilder von der Verteilung von Blutgefäßen. Besonders interessant ist dabei die
Tatsache, dass sich das Absorptionsverhalten von Blut mit
der Sauerstoffsättigung ändert. Verantwortlich dafür sind
leichte Verschiebungen im Absorptionsspektrum des Hämoglobins, wenn es eine Bindung mit Sauerstoff eingeht.
Damit ist es grundsätzlich möglich, in Gewebe ein dreidimensionales Abbild der Sauerstoffsättigung zu gewinnen,
wenn die Anregung der photoakustischen Signale mit Pulsen verschiedener Wellenlänge erfolgt.
Eine solche quantitative Bildgebung geht über die bisher beschriebene Rekonstruktion der Energieverteilung hinaus, da hier absolute Werte des optischen Absorptionsko-
MEDIZINPHYSIK
Drucksignal
Filterung
t1
t1
Zeit
Die photoakustische Anregung eines Objektes mit eingebetteten Absorbern (links
oben) gibt ein Drucksignal, das von den einzelnen Quellen jeweils eine bipolare
Form hat. Diese Signale werden nach Filterung auf ihre möglichen Entstehungsorte
rückprojiziert (rechts oben). Für einen punktförmigen Sensor sind diese Orte
Kugelschalen mit dem Sensor im Zentrum und mit einem Radius ct, wobei c die
Schallgeschwindigkeit ist. Für eine Quelle in der Ebene braucht man mindestens
zwei Beobachtungsorte (rote und blaue Rückprojektion), für die eindeutige Rekonstruktion komplizierter Quellenverteilungen wesentlich mehr.
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
247
Der ideale Sensor
Die Photoakustik kann ihre Verwandtschaft mit der herkömmlichen Ultraschalldiagnostik nicht verleugnen. In beiden Fällen werden Strukturen im Inneren des Körpers mithilfe von Schallwellen sichtbar gemacht. Diese Strukturen
sind bei beiden Methoden etwa gleich groß, daher ist auch
der akustische Frequenzbereich sehr ähnlich. Tatsächlich
konnten mit der Kombination eines herkömmlichen Ultraschallgerätes mit einem gepulsten Laser gleichzeitig Bilder
mit beiden Methoden aufgenommen werden [9]. Die Information beider Bilder ist komplementär, da die Kontrastmechanismen sehr unterschiedlich sind.
Die kombinierten piezoelektrischen Schallgeber und
-Empfänger der herkömmlichen Ultraschalltechnik haben
allerdings eine sehr begrenzte Bandbreite, sie sind auf die
Frequenz der ausgesandten Schallwellen optimiert. Bei der
Photoakustik hingegen hängt der Bereich der Schallfrequenzen in erster Linie von der Verteilung der absorbierten Energie im untersuchten Objekt ab: kleine Strukturen
strahlen höhere Frequenzen ab als größere Strukturen.
Um beliebige Objekte abzubilden, müssen die Detektoren
für die Photoakustik daher breitbandig sein. Ideal wäre
ein möglichst flacher Frequenzgang von wenigen 100 kHz
bis einige 10 MHz. Eine weitere Komplikation ist die
gleichzeitige Verwendung von Licht und Schall. Herkömmliche Piezoelemente sind nicht transparent und können das zu untersuchende Objekt von den Laserpulsen
abschatten.
Mit einer optischen Schallmessung kann man jedoch
breitbandige, optisch transparente Sensoren realisieren. Um
die Wechselwirkung des Schallfelds mit einer Lichtwelle zu
erfassen, bieten sich interferometrische Methoden an. Mit
ABB. 5
dünnen „Etalons“ etwa kann man gute Erfolge erzielen, die
mit einem fokussierten Laserstrahl abgefragt werden und
ein Signal durch eine leichte Dickenänderung im Schallfeld
liefern [10]. Das Etalon besteht aus einer wenige Mikrometer dünnen Polymerfolie, die beidseitig mit dielektrischen
Schichten mit hoher optischer Reflexion beschichtet ist.
Sie bildet für die Lichtwelle einen optischen Resonator, der
trotz kleiner aktiver Sensorfläche sehr empfindlich auf eine geringe Dickenänderung reagiert.
Ein weiteres optisches Verfahren, das wir in Graz einsetzen, nutzt ein Mach-Zehnder-Interferometer. In ihm wird
ein Laserstrahl mit einem Strahlteiler in zwei Zweige aufgespalten und später wieder vereinigt (Abbildung 5) [11].
Einer der Zweige bildet den Sensor nahe dem Untersuchungsobjekt, dort erzeugt die entstehende Schallwelle eine optische Phasenverschiebung. Für die akustische Kopplung befinden sich das Objekt und der fokussierte Interferometerstrahl in einem Wasserbad. Nach der Rekombination
entstehen zwei Lichtbündel, deren Intensitäten gegenphasig mit dem zeitlichen Amplitudenverlauf der Schallwelle
moduliert sind.
Das erhaltene Signal gibt allerdings nicht den zeitlichen
Druckverlauf an einem Punkt wieder, sondern das Integral
des Druckfeldes über die Länge des Laserstrahls im Interferometer. Es stellt sich daher die Frage, ob aus solchen Integralen überhaupt eine genaue tomographische Rekonstruktion möglich ist. Tatsächlich kann man mathematisch
beweisen, dass man mit einem zweistufigen Rekonstruktionsverfahren exakte Bilder berechnen kann. In einer Ebene senkrecht zum detektierenden Laserstrahl ist der Sensor
sehr klein, gerade so groß wie der Strahldurchmesser. Daher kann man mit den schon vorgestellten Methoden der
M AC H - Z E H N D E R- I N T E R F E RO M E T E R
Detektor
ST
SP
Laser
SP
LP
ST
L
L
SP
WB
Messung von Schallsignalen mit einem Mach-Zehnder-Interferometer für die photoakustische Tomographie. Das Objekt befindet sich in einem Wassertank und wird mit kurzen Laserpulsen bestrahlt. Die dabei erzeugten Druckwellen erzeugen Schwankungen in der optischen Brechzahl. Diese wandelt das Interferometer in Intensitätsschwankungen um, die zwei Photodetektoren messen. Für die Tomographie wird das Objekt gedreht und um den Strahl herumgeführt. ST: Strahlteiler, SP: Spiegel, L:
Linse, WB: Wasserbad, LP: Laserpuls.
248
Phys. Unserer Zeit
5/2013 (44)
www.phiuz.de
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
PHOTOAKUSTISCHE BILDGEBUNG
tomographischen Rekonstruktion im ersten Schritt aus den
gemessenen Signalen ein zweidimensionales Bild berechnen. Dieses entspricht einer Projektion der absorbierten
Energiedichte in diese Ebene.
Idealerweise sollte der Detektionsstrahl dafür Signale
aus dem Objekt in möglichst allen Richtungen aufnehmen,
muss also das Objekt vollständig überstreichen. Um die
komplette Information über es zu gewinnen, muss noch die
Orientierung des Detektionsstrahls relativ zum Objekt verändert werden. Das geschieht durch Rotation des Objektes
um eine Achse senkrecht zu diesem Strahl (Abbildung 5).
Im zweiten Schritt der Rekonstruktion wird aus den gesamten Projektionsbildern die dreidimensionale Verteilung
der Energiedichte im Objekt berechnet. Dabei verwendet
man mathematische Methoden aus der Röntgen-Computertomographie.
Obwohl dieses Verfahren sich kompliziert anhört, benötigt es nicht mehr Daten als eine Rekonstruktion aus Messungen mit einem einzigen punktförmigen Detektor. Neben der eleganten optischen Detektion bietet es noch einen
Vorteil. Die beschriebene tomographische Methode mit der
Rückprojektion über Kugeloberflächen setzt nämlich voraus, dass die eingesetzten Sensoren punktförmig sind. Kleine piezoelektrische Sensoren verlieren allerdings an Empfindlichkeit. Daher muss man auf Sensoren mit üblicherweise wenigen Millimetern Durchmesser zurückgreifen.
Diese endliche Größe wirkt sich bei der Rekonstruktion auf
die erreichbare räumliche Auflösung aus, die im ungünstigsten Fall ebenso groß ist wie der verwendete Sensor.
Dagegen kann man einen Lichtstrahl entweder durch
Fokussierung oder durch Führung in einer Glasfaser ohne
Probleme auf einige zehn Mikrometer Durchmesser begrenzen. Eine entsprechend hohe Auflösung kann man für
die dreidimensionale Bildgebung erreichen. Abbildung 6
zeigt ein Objekt mit kleinen Details in der Größenordnung
von 100 µm, aufgenommen mit einem Mach-Zehnder-Interferometer als Ultraschallsensor.
Von Mäusen und Menschen
Bis die photoakustische Bildgebung für Routineuntersuchungen am Menschen eingesetzt werden kann, wird wohl
noch einige Zeit vergehen. Allerdings sind jetzt schon kommerzielle Systeme für die Untersuchung von kleinen Tieren
erhältlich. Mäuse oder ähnlich kleine Tiere spielen eine
wichtige Rolle in der medizinischen Forschung. Bei ihnen
ermöglicht die auf wenige Zentimeter limitierte optische
Endringtiefe sogar eine Ganzkörper-Tomographie (Abbildung 6).
Beim Menschen ist das möglicherweise wichtigste zukünftige Einsatzgebiet, das auch zurzeit am meisten erforscht wird, die Früherkennung von Brustkrebs. Nicht unbedingt als Alternative, sondern als Ergänzung zur herkömmlichen Mammographie mit Röntgenstrahlen. In
Tumoren gibt es eine ungewöhnliche Ansammlung von neugebildeten Blutgefäßen zur Versorgung der Tumorzellen.
Genau diese Blutgefäße macht die photoakustische Tomo© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
ABB. 6
MEDIZINPHYSIK
ZEBRAFISCH
2 mm
Zwei Projektionen eines dreidimensionalen Datensatzes, der
ein photoakustisches Tomographiebild eines Zebrafisches
enthält. Der Fisch war fixiert und befand sich in Gelatine
eingebettet in einem Wasserbad. Während der Bestrahlung
mit 10 ns langen Laserpulsen wurden Drucksignale mit einem
Mach-Zehnder-Interferometer aufgenommen. Das Bild wurde
aus insgesamt 36 000 Drucksignalen rekonstruiert.
graphie sichtbar, und zwar besser als die etablierten Methoden wie Röntgenstrahlung und Ultraschall, und ohne die
Notwendigkeit von Kontrastmitteln. Erste medizinische Studien an Menschen gibt es bereits [12].
Als weitere Anwendung ist Haut wegen der begrenzten
Eindringtiefe des diffusen Lichts geradezu prädestiniert für
die photoakustische Bildgebung. Die mikroskopische Technik ermöglicht hochaufgelöste Bilder von den kleinen Blutgefäßen nahe der Hautoberfläche [3]. Auch die Bestimmung
der Sauerstoffsättigung in diesen Gefäßen ist möglich. Wegen des Absorptionskontrasts von Melanin ist die Untersuchung von gutartigen und bösartigen pigmentierten Läsionen eine weitere vielversprechende Anwendung.
Bleibt noch die Frage der Sicherheit. Immerhin ist die
Wechselwirkung zwischen Laserstrahlung und biologischem Gewebe zur Erzeugung von Schallwellen thermisch.
Sie führt also zur Erwärmung der beobachteten Gewebeareale. Allerdings genügen schon einige Millikelvin Temperaturerhöhung, um eine gut messbare Schallwelle zu erzeugen. Diese Erwärmung ist ungefährlich. Photoakustische
Bildgebung ist also sicher, zumal die verwendete Strahlung
nicht ionisierend ist.
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
249
Zusammenfassung
Die photoakustische Bildgebung kann in biologischem Gewebe Strukturen mit optischem Kontrast sichtbar machen. Sie
sendet kurze Lichtpulse, meist aus Lasern, ins Gewebe und erzeugt dort Ultraschall. Mit diffus gestreutem Licht ist eine Tiefe bis zu wenigen Zentimetern zugänglich. Breitbandige Sensoren nehmen die Ultraschallsignale auf. Entweder direkt oder
über eine tomographische Rekonstruktion werden diese dann
in ein zwei- oder dreidimensionales Bild umgewandelt. Es
macht Strukturen mit erhöhter optischer Absorption sichtbar,
etwa Blutgefäße. Sogar Bilder der lokalen Sauerstoffsättigung
im Blut sind möglich. Zukünftige Anwendungsgebiete werden bei der Früherkennung von Brustkrebs und in der Diagnose von Hautveränderungen erwartet.
Stichworte
Photoakustische Bildgebung, photoakustischer Effekt, photoakustische Mikroskopie, photoakustische Tomographie,
Ultraschallsensor, Brustkrebs, Hautveränderung.
Literatur
[1]
[2]
[3]
[4]
250
Phys. Unserer Zeit
M. H. Xu and L. V. Wang, Rev. Sci. Instrum. 2006, 77, 041101.
H. F. Zhang et al., Nat. Biotechnol. 2006, 24, 848.
C. Favazza et al., J Biomed Opt 2011, 16, 016015.
S. Hu et al., Optics Lett. 2011, 36, 1134.
5/2013 (44)
www.phiuz.de
[5]
[6]
[7]
[8]
[9]
[10]
K. Maslov et al., Opt. Lett. 2008, 33, 929.
M. H. Xu, L. V. Wang, Phys Rev E. 2005, 71, 016706.
B. Cox et al., J. Biomed. Opt. 2012, 17, 061202.
C. Kim, C. Favazza, and L. V. Wang, Chem. Rev. 2010, 110, 2756.
J. J. Niederhauser et al., IEEE Trans. Med. Imag. 2005, 24, 436.
P. C. Beard, A. M. Hurrell, T. N. Mills, IEEE Trans. Ultrason., Ferroelect., Freq. Contr. 2000, 47, 256.
[11] G. Paltauf et al., Appl. Opt. 2007, 46, 3352.
[12] M. Heijblom et al., Opt. Express 2012, 20, 11582.
Danksagung
Der Autor dankt dem Österreichischen Forschungsfonds (FWF) für
die Förderung des Projekts S10502 (Photoakustische Tomographie).
Der Autor
Günther Paltauf studierte Physik an der Universität
Graz, wo er 1993 promovierte. Nach mehreren
Jahren als Postdoc in Graz, Bern und Portland
(Oregon) arbeitet er seit 2001 am Institut für Physik
der Universität Graz als Ao. Univ. Prof. und forscht
im Bereich photoakustische Bildgebung und LaserGewebe-Wechselwirkung.
Anschrift
Prof. Dr. Günther Paltauf, Universität Graz,
Institut für Physik, Universitätsplatz 5, A-8010 Graz,
Österreich. [email protected]
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
M AG A Z I N
R A SA N T E PH YS I K
|
Das Splittern nach dem Schuss
Rohe Eier sind, zwischen Daumen und Zeigefinger gehalten, sehr stabil.
Das gilt auch für kugelförmige Christbaumkugeln. Mit solchen Feier tagsutensilien lassen sich interessante physikalische Experimente
zur Inkompressibilität von Flüssigkeiten anstellen – und mit Hochgeschwindigkeitskameras studieren.
Die Kompressibilität κ (der Kehrwert
des sogenannten Kompressionsmoduls) ist eine Kenngröße von Fluiden, die die Volumenänderung ∆V im
Vergleich zum ursprünglichen Volumen V bei Vorliegen einer Druckdifferenz ∆p beschreibt
∆V/V = – κ ∆p.
(1)
Bei gleichem Druckunterschied
lassen sich Flüssigkeiten deutlich
schlechter komprimieren als Gase.
So wird beispielsweise ein ideales
Gas bei einem Druckunterschied von
1000 Pa gegenüber Atmosphärendruck von 105 Pa immerhin eine
Volumenänderung von 1 % erfahren.
In diesem Fall beträgt die Kompressibilität (κ = 1/p) etwa 10–5 Pa–1. Bei
Wasser, in der die Moleküle deutlich
dichter liegen, beträgt die Kompressibilität nur 0,5 · 10–9 Pa–1. Dies führt
zu einer relativen Volumenänderung
bei ∆p = 1000 Pa von nur etwa
5 · 10–7. Man müsste schon einen
äußeren Druck von über 107 Pa
(100 Atmosphären) ausüben, um
ebenfalls eine Volumenänderung von
1 % zu erreichen. Diese niedrige Kompressibilität führt bei Flüssigkeiten zu
interessanten Phänomenen, die
teilweise sehr schnell ablaufen [1].
Beginnen wir mit dem von Form
und Sauberkeit des Experiments
nicht optimalen Alltagsgegenstand
eines rohen Eis. Schießt man mit
einer Luftpistole und Geschossgeschwindigkeiten in der Größenordnung 100 m/s auf ein rohes Ei, so ist
das Endergebnis wie erwartet: Es
zerspritzt, der Inhalt verteilt sich bis
in recht große Entfernungen. Bei
diesem Experiment sollte man
deshalb Videoaufnahmen durch eine
Schutzscheibe aufnehmen. Ab-
bildung 1 zeigt einige Momentaufnahmen des Experiments
(Videoaufnahmen finden Sie auf
www.phiuz.de, Special Features,
Zusatzmaterial zu den Heften).
Es fällt auf, dass die vom Projektil
aus gesehene, rückwärtige Eischale
schon vor Austritt der Kugel zerplatzt. Die einfachste Erklärung
besagt, dass wegen der Inkompressibilität der Flüssigkeit das vom Projektil verdrängte Volumen im Ei zu einer
Druckerhöhung führt, der die Schale
nicht gewachsen ist. In einer genaueren Analyse müssen natürlich auch
Trägheitseffekte der bewegten
Flüssigkeit und die durch das Projektil verursachte Schockwelle im Ei
berücksichtigt werden. Da Eier sich
stark voneinander in Form und
Schalendickenverteilung unterscheiden können, stellt jedes derartige
Experiment ein Unikat dar. Besser ist
es, die Physik mit etwas reproduzierbareren ähnlichen Systemen zu
untersuchen.
Hierfür bieten sich Christbaumkugeln aus Plastik an. Abbildung 2
zeigt drei Momentaufnahmen beim
Schuss auf eine luftgefüllte Kugel aus
einer Sequenz mit 8000 Bildern pro
Sekunde. Sie gestattet es, die Geschwindigkeit des Projektils genau zu
bestimmen.
Die Längenskala ergibt sich aus
dem Außendurchmesser der Kugel
von 57 mm (Innendurchmesser
55 mm) sowie der bekannten Länge
der auf dem Lauf befindlichen Zielvorrichtung von 30 mm. Die Kugel
hatte folgende Maße: Masse = 0,54 g,
Länge = 6,7 mm, Länge/Durchmesser
≈ 1,5, Volumen = 6 · 10–2 cm3.
Vor dem Auftreffen auf die
Hohlkugel betrug die Geschwindigkeit v = 84 m/s, nach dem Austritt
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Abb. 1 Das Projektil einer Luftpistole trifft ein rohes Ei:
a) kurz vor dem Auftreffen; b) nach 0,333 ms, c) nach
1,333 ms. Das ausgetretene Projektil befindet sich im rot
markierten Feld (Aufnahme mit 6000 Bildern/s, Integrationszeit 1/6000 s.
etwa 78 m/s. Beim Aufprall wurde
demnach etwa 1/7 der kinetischen
Energie auf die Kugel übertragen.
Aufgrund der hohen Geschwindigkeit wurde das Projektil im Bild
länglich verzerrt auf ein Verhältnis
von Länge zu Durchmesser von 3 bis
3,5. Genauere Angaben sind in
diesem Beispiel wegen der begrenzten Auflösung von 512 × 512 Pixeln
und dem gewählten Bildausschnitt
nicht möglich.
Die luftgefüllte Hohlkugel bietet
kaum Widerstand für das Projektil,
das durch den Aufprall im Wesentlichen Löcher in die Schale bricht, so
dass meistens kleine Fragmente mit
Flächen von einigen Quadratmillime-
www.phiuz.de
5/2013 (44)
Download
Phys. Unserer Zeit
251
M AG A Z I N
Abb. 2 Das Projektil (innerhalb der rot
gekennzeichneten Ellipse) einer Luftpistole trifft eine hohle Christbaumkugel
(Öffnung unten): a) vor dem Auftreffen, b) 1,5 ms später nach dem Austritt
aus der Kugel. Erste Plastikfragmente
der Kugel fliegen erst nach dem Austritt
des Projektils weg (8000 Bilder/s,
Integrationszeit 1/8000 s).
Abb. 3 Das Projektil trifft eine wassergefüllte, verschlossene Christbaumkugel: a) vor dem Auftreffen, (b, c) nach dem Austritt
aus der Kugel. Die Kugel explodiert bereits bevor das Projektil austritt (8000 Bilder/s, Integrationszeit 1/8000 s).
tern bis maximal etwa ein Quadratzentimeter wegfliegen. Der Hauptteil
der Kugel bleibt unbeschädigt auf
der Halterung liegend zurück (Video
auf www.phiuz.de).
Abbildung 3 zeigt einen stark
vergrößerten Bildausschnitt einer
nun mit Wasser gefüllten Kugel,
deren Öffnung mit einem Gummistopfen verschlossen war. Vor dem
Auftreffen auf die Kugel hatte das
Projektil eine Geschwindigkeit von
80 bis 84 m/s, nach dem Austritt
sank sie auf etwa 47 m/s. Diese
stärkere Abbremsung zeigte sich
auch an der längeren Durchflugszeit
durch die Kugel von etwa 1 ms im
Vergleich zu 0,75 ms bei der luftgefüllten Kugel. Der wesentliche
Unterschied ist jedoch die „Explosion“ der Christbaumkugel noch
während das Projektil im Innern ist
(Video auf www.phiuz.de).
Da die luftgefüllte Kugel nicht
zerplatzte, können mechanische
Deformationswellen in der Hülle
nicht für die Explosion verantwortlich sein. Insofern bleibt nur das
Wasser als Ursache übrig. Üblich
erklärt man das Verhalten nach (1)
durch die sehr geringe Kompressibilität des Wassers bei Zimmertemperatur von κWasser ≈ 0,5 · 10–9 Pa–1.
252
Phys. Unserer Zeit
5/2013 (44)
Bei einer äußeren Druckänderung ∆p ergeben sich Volumenänderungen ∆V. Ein Projektil hat ein
Volumen von VProjektil ≈ 6 · 10–2 cm3,
was ungefähr 1/1450 des Wasservolumens in der Kugel entspricht. Da
anfangs nur sehr wenig Wasser
heraus spritzt, muss in erster Näherung nach dem Kugeleintritt sowohl
das Wasser als auch das Projektil in
dasselbe verfügbare Innenvolumen
der Kugel hineinpassen. Das geht
nur, wenn das Wasser gemäß (1)
entsprechend um ∆V = VProjektil
komprimiert wird. Hierzu wäre aber
ein Druckunterschied vom 14-fachen
Atmosphärendruck nötig, der aufgrund ihrer mechanischen Eigenschaften von der dünnen Plastikhülle
nicht aufgebracht werden kann.
Folglich muss sie platzen.
Über die eingangs erwähnten
Trägheitseffekte der bewegten
Flüssigkeit und die durch das Projektil verursachte Schockwelle gehen
wir in der nächsten Folge auf den
Grund.
Literatur
[1] M. Vollmer, K.-P. Möllmann, Phys. Ed.
2012, 47(6), 664.
www.phiuz.de
Michael Vollmer, Klaus-Peter
Möllmann, FH Brandenburg
L E H R E R FO R T B I L D U N G
|
Experiment und Vortrag
Das DESY bietet im Rahmen eines
MINT-Lehrerseminars vom 21. bis
22. November 2013 die Möglichkeit,
mit einfachen Experimenten kosmische Teilchen zu messen, die
dazugehörige Datenauswertung
kennen zu lernen und den Einsatz im
Unterricht zu diskutieren. Es entstehen
keine Kosten, die Teilnehmerzahl ist
auf 12 begrenzt. www.mint-ec.de/
veranstaltungen/lehrerfortbildungteilchenphysik-am-desy-zeuthen-beiberlin.html
Die Fakultät für Physik und Astronomie der Universität Würzburg bietet
Vorträge der Reihe Physik am Samstag
an, die als Lehrerfortbildung anerkannt werden. In den kommenden
Monaten stehen die Themen an: Am
Ziel? – Die Elementarteilchenphysik
nach der Entdeckung eines HiggsBosons (12.10.), Optische Mikroskopie
mit atomarer Auflösung – Wunsch
oder Wirklichkeit? (7.12.), Star Trek im
Alltag – Eine Einführung in Quantenteleportation und -Information
(8.2.2014). www.physik.uni-wuerzburg.de/aktuelles/oeffentlichkeit/
physik_am_samstag/
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
M AG A Z I N
S M A R T E PH YS I K
|
Smartphone als Geigerzähler
Strahlenunfälle wie Tschernobyl und Fukushima sowie die Diskussion
über die Endlagerung radioaktiver Stoffe machen das Thema zivilisatorische Radioaktivität allgegenwärtig. Smartphones und Tablet-PCs
ermöglichen es, radioaktive Strahlung zu erfassen und anzuzeigen. Die
App RadioactivityCounter ermöglicht es, die Geräte sowohl als Anzeigegerät für solche Strahlung als auch für Lehrzwecke in Schule und Universität zu verwenden.
Das Messgerät für die radioaktive
Strahlung in Smartphones ist der
Kamerasensor. Dieser CCD- oder
CMOS-Chip besteht aus mehreren
Millionen Sensorzellen, welche die
Bildpunkte (Pixel) der Fotos oder
Videos bilden. Dabei ist jede Sensorzelle eine nur wenige Mikrometer
kleine pn-Diode. Deren Halbleiterübergang ist strahlungsempfindlich
und beim Eintreffen der radioaktiven
Strahlung wird ein weißes Pixel
erzeugt [1]. Der Kamerasensor kann
somit von der Funktionsweise her
mit einem Halbleiterdetektor verglichen werden.
Um Smartphone-Kameras als
Strahlendetektoren nutzen zu können, ist es zunächst nötig, die Kameralinse beispielsweise mit Gewebeklebeband, schwarzem Kartonstreifen
oder Alufolie lichtdicht abzudecken
(Abbildung 1). Damit kann kein
einfallendes Licht das Erfassen von
Strahlungspartikeln verfälschen [2].
Als nächstes wird eine geeignete App
benötigt, die das Bild des Kamerasensors auswertet und Rückschlüsse auf
die Strahlungsstärke erlaubt. Das hier
vorgestellte Programm RadioactivityCounter ist sowohl für iOS als auch
für Android basierte Smartphones
erhältlich, wobei sich beide Versionen in einzelnen Elementen wie
Startbildschirm, Kalibrierfunktion
oder Export deutlich unterscheiden.
Wir beziehen uns hier auf die Android-Version.
Einen ersten Versuch kann man
mit einem Glühstrumpf ausführen.
Diese Netze werden beispielsweise
zur Lichterzeugung in Gaslampen
verwendet und sind wegen ihres
Thoriumgehalts teils leicht radioaktiv.
Man legt nun das Smartphone oder
den Tablet-PC einfach auf den Glühstrumpf, wobei sich die verdeckte
Kameralinse möglichst dicht an dem
Objekt befinden sollte. Danach kann
der Messvorgang durch Betätigen der
Taste „start log“ der App gestartet
werden. Nach Anlegen der Protokolldatei (Log-Datei) beginnt die eigentliche Messung.
Wegen der relativ schwachen
Aktivität ist eine Messdauer von fünf
bis zehn Minuten nötig. Mit dem
Samsung Galaxy Tab 2 7.0 erhielten
wir bei einer Messdauer von zehn
Minuten eine Zählrate von 33 min–1.
Danach kann durch Betätigen der
Taste „stop log“ die Protokollierung
der Zählraten gestoppt werden.
Dadurch wird jedoch nicht die
eigentliche Messung unterbrochen.
Die App erfasst weiterhin Impulse
und rechnet sie in die dargestellte
absolute Zählrate mit ein (Abbildungen 2 und 3).
Aus diesem Grund sollte die
Protokollierung durch die Log-Datei
möglichst zum Beginn einer neuen
Minute gestoppt und gegebenenfalls
die absolute Zählrate mit der Gesamtmessdauer direkt abgelesen und in
einer Tabelle festgehalten werden.
Zum Vergleich sollte man dann die
Nullrate in Abwesenheit jeglicher
radioaktiver Quellen messen. Dazu
müssen zunächst mithilfe der Schaltfläche „clear“ die alten Messwerte
aus dem Zwischenspeicher gelöscht
werden, bevor man wie oben beschrieben eine neue Messung startet.
Nach einer Messzeit von etwa
zehn Minuten wird in unserem
Beispiel eine Zählrate von 13 min–1
angezeigt. Für den Glühstrumpf
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
Abb. 1 Abdeckstreifen (links), rechts aufgeklebt auf die
Kameralinse eines Samsung Galaxy Tablet 2 7.0.
Abb. 2 Benutzeroberfläche des RadioactivityCounter (Android): Hauptmenü (oben) und erweitertes Menu (unten) (ergänzte Ziffern zur Erläuterung).
ergibt sich damit eine effektive
Aktivität von 20 min–1. Zur genaueren Untersuchung der jeweils aufgenommenen Zählwerte können die
Log-Dateien auf einen PC übertragen
und beispielsweise mit einem Tabellenkalkulationsprogramm ausgelesen
werden (Statistik-Button, c in Abbildung 2).
Somit können Smartphones
qualitativ zum Nachweis ionisierender Strahlung verwendet werden [3].
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
253
M AG A Z I N
Sr-90) mit zufriedenstellender Genauigkeit experimentell untersuchen [4,
5]. Damit eignen sich solche Geräte
durchaus für Lehr- und Lernzwecke
in Schule und Hochschule [4, 5].
Bedienelemente für Android
Abb. 3 Das Settings-Menü.
Allerdings eignen sie sich unter
anderem wegen der geringeren
Sensitivität nicht für quantitative
Aussagen, beispielsweise zur Bestimmung der Dosisleistung insbesondere
im schwach strahlenden Bereich
(Dosisleistung unter 1–10 µGy/h)
und im Bereich alltäglicher Umgebungsstrahlung [2].
Trotz der Einschränkung erlauben die Geräte aber die experimentelle Verifizierung physikalischer
Gesetzmäßigkeiten radioaktiver
Strahlung. So lassen sich das Absorptionsgesetz von Gamma- und Betastrahlung, die Halbwertszeit radioaktiver Präparate und die Ablenkung
von Betastrahlung in Magnetfeldern
mit definierten Experimentierbedingungen und handelsüblichen radioaktiven Präparaten von Lehrmittelherstellern (beispielsweise Cs-137 oder
Abb. 4 Menü zur Gerätekalibrierung.
254
Phys. Unserer Zeit
5/2013 (44)
Die App RadioactivityCounter zählt
innerhalb einer beliebigen Zeitspanne für jede einzelne Minute die Ereignisse auf dem Kamerasensor und
speichert diese Ereigniszahl jeweils
in einem Zeit-Ereigniszahl-Balkendiagramm (2 in Abbildung 2). Die Zeitachse ist dabei in diskrete Minutenschritte unterteilt. Über die so gewonnenen Daten wird die zu einer
für die bisherige Zeitdauer zutreffende Zählrate gemittelt.
Bei der ersten Ausführung der
App ist zunächst eine Kalibrierung
des Kamerasensors durch Betätigen
des Buttons „set noise“ im erweiterten Menü nötig (siehe unten). Dabei
erkennt das Programm die sensoreigenen Rauschsignale (noise) automatisch und blendet diese in weiteren
Messungen als Offset aus. Nach der
Kalibrierung ist RadioactivityCounter
zur Messung einsatzbereit.
Hauptmenü
Die Schaltfläche „start/stop log“ (1 in
Abbildung 2) startet beziehungsweise stoppt die Protokollierung der
Zählraten, „clear“ löscht vorher
noch vorhandene Daten aus dem
Zwischenspeicher, so dass eine neue
Messreihe aufgenommen werden
kann. Die Schaltfläche „spekt/graph“
schaltet zwischen den Anzeigen
Spektrum (Intensitäts-HäufigkeitsDiagramm) und Graph (Zeit-Zählwert-Diagramm) hin und her (2 in
Abbildung 2). Die Anzeige 3 in Abbildung 2 stellt die detektierten Ereignisse, die während der gesamten
Messdauer erfasst wurden, auf dem
zugehörigen Ort des Kamerachips in
Form weißer Pixel grafisch dar. Dort
werden außerdem die gesamte Messdauer und der darüber berechnete
Mittelwert der Zählrate pro Minute
angezeigt. Sind Kalibrierwerte zur
Zuordnung von Zählrate und Dosisleistung in den erweiterten Einstel-
www.phiuz.de
lungen vorhanden, so wird hier ebenfalls ein gemittelter Wert für die Dosisleistung angezeigt. Anzeige 5 in
Abbildung 2 stellt im Gegensatz dazu
die Mittelwerte über einen festen
Zeitbereich dar, der sich im erweiterten Menü definieren lässt.
Eine zusätzliche Funktion dieser
Anzeige ist die grafische Darstellung
bei sich ändernden Werten für
Zählrate und Dosisleistung (rot:
Erhöhung; grün: Reduktion; gelb:
gleich bleibend). Darunter findet
sich wiederum eine Anzeige (6 in
Abbildung 2) zu der verbleibenden
Zeit der laufenden Minute und der in
dieser Minute bisher erfassten Anzahl
der Ereignisse. Anzeige 7 in Abbildung 2 dient dazu, wichtige Werte
zum Gerät wie Bezeichnung, Framerate und Temperatur und zu verschiedenen Einstellungen wie NoiseWert usw. (Abbildung 3) wiederzugeben.
Erweitertes Menü
Durch Betätigung des Android-Menübuttons eröffnen sich weitere Einstellmöglichkeiten. Zu den wichtigsten Bedienelementen dieses erweiterten Menüs gehört der Button
„settings“ (a in Abbildung 2), der die
Anzeige der Grundeinstellungen aufruft (Abbildung 3). Der Regelschalter
„interval“ legt das Zeitintervall zur
Mittelwertbildung der Zählrate in Anzeige 5 der Abbildung 2 fest. Das
Feld „noise“ dient zur Anpassung des
Rauschlevels. Darin stellt ein ganzzahliger Wert den Level des integrierten Rauschunterdrückungs-Algorithmus dar: Ein kleiner Wert steht somit
gleichermaßen für eine hohe Sensitivität und für wenige durch den Kamerachip verursachte und zu unterdrückende Rauschsignale. Eine Erhöhung dieses Wertes um eine Stufe bedeutet für die meisten Geräte gleichzeitig eine Verminderung der Empfindlichkeit um etwa 10 %, da
ankommende Strahlung ebenfalls als
Kamerarauschen aufgefasst und
unterdrückt wird [2].
Die Noise-Sensitivität wird bei
der ersten Benutzung der Software
automatisch erfasst und festgelegt.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
M AG A Z I N
Sie kann jedoch innerhalb des Settings-Menüs auch so angepasst
werden, dass für den gewöhnlichen
Nulleffekt eine sinnvolle Anzahl an
Ereignissen pro Minute erfasst werden, die sich mit einem Vergleichsmessgerät ermitteln lassen (gewöhnlich 10 bis 20 Impulse pro Minute).
Die Einstellungen für „expose“
und „border“ in Abbildung 3 sind
bereits voreingestellt [2] und kommen nur zum Einsatz, wenn die
Empfindlichkeit auf Kosten höherer
Rauschsignale erhöht oder das
Rauschen an den Rändern des Kamerasensors vermindert werden soll.
Die Hintergrund-Strahlendosisleistung „backgrnd“ kann ebenfalls in
10 nSv/h-Schritten festgelegt werden
und ist in diesem Fall auf einen Wert
von 90 nSv/h gesetzt (Abbildung 3).
Weitere Einstellmöglichkeiten
sind die Benutzung der vorderen
oder rückseitigen Kamera (Frontoder Back-Cam), die Einspielung
eines Alarm- oder Klicktons oder die
Speicherung der per GPS erfassten
Geodaten in Protokolldateien (LogDateien). Darin werden die gesammelten Daten tabellarisch gespeichert, was beispielsweise für die
Erfassung und Dokumentation der
Strahlenbelastung an unterschiedlichen Orten nützlich ist.
Der Button „set noise“ (b in
Abbildung 2) dient zur automati-
BÜCHER
|
Das lebendige
Theorem, Cédric
Villani, 304 S.,
S. Fischer, Frankfurt/M., geb.
19,99 1. ISBN:
978-3-10-086007-1.
Cédric Villani feiert in diesem Jahr
seinen 40. Geburtstag. Das ist sein
Glück, denn so konnte er 2010 die
Fields-Medaille bekommen, den
„Nobelpreis“ der Mathematik, der
schen Erfassung und Festlegung des
Rauschlevels des Kamerasensors.
Dieser muss bei der ersten Inbetriebnahme der App betätigt werden, um
unverfälschte Messwerte zu erfassen.
Beim Betätigen der Schaltfläche
„statistik“ (c in Abbildung 2) gelangt
man zu einer Auflistung der bereits
aufgezeichneten Log-Dateien, die mit
der programmeigenen Betrachterfunktion erneut angezeigt werden
können.
Für die Darstellung der Daten
gibt es verschiedene Möglichkeiten,
zum Beispiel als Balken- oder Liniendiagramm. Über den Menübutton des
Smartphones können die einzelnen
Messreihen schließlich als CSVDateien via Email versendet oder auf
das interne Speichermedium geschrieben werden. Von dort aus
lassen sich die Daten dann beispielsweise per USB-Verbindung oder
Dropbox exportieren.
Schließlich kann man das Smartphone mit „adjust“ (d in Abbildung 2)
kalibrieren. Damit werden der App
einander entsprechende Fixwerte für
Zählrate und Dosisleistung vorgegeben (Abbildung 4). Anhand dieser
Fixwerte wird dann eine interne
Kennlinie für den Zusammenhang
von Zählrate und Dosisleistung
angepasst, womit im Hauptmenü
wiederum für eine bestimmte gemittelte Zählrate die dazugehörige
nur exzellenten Forschern unter 40
Jahren vorbehalten ist. Villani erhielt
sie unter anderem für das Theorem,
um dessen Beweis sich das Buch
dreht: Eine Beschreibung des Ringens um die nichtlinearen Lösungen
der Wlassow-Poisson-Landau-Gleichung, des Standardmodells der
klassischen Plasmaphysik. Erstaunliche Phänomene wie „Echos“, die
nach der Anregung von Plasmen
auftreten können, erklären sich
durch die Arbeit von Villani und
seiner Mitstreiter wie von selbst.
Aber schafft er das auch mit der
Mathematik in seinem Buch? Klare
Antwort: Nein, aber das will er auch
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
RadioactivityCounter
Kategorie: Messwerterfassung
Fachgebiet: Kernphysik
Plattform: Android
Sensor: Kamera (CCD-/CMOS-Chip)
Speichermöglichkeit: ja
Exportmöglichkeit: ja
Kosten: EUR 3,49 (iOS-Version: EUR 4,49)
Bedienung: gut
Sprache: Englisch
Link (Android):
play.google.com/store/apps/details?id=com.rdklein.
radioactivity&hl=de
Link (iOS):
itunes.apple.com/de/app/radioactivitycounter/
id464004677?mt=8
Dosisleistung errechnet wird. Dabei
ist bei Schwachstrahlern (unter
1–10 µGy/h) davon abzuraten, die
mit der App bestimmte Aktivität in
(Äquivalent-)Dosisleistung umzurechnen [2].
Literatur
[1] www.opengeiger.de/RadCountRDKlein.pdf
[2] www.hotray-info.de/html/radioactivity.
html
[3] T. Kaireit et al., Fortschr Röntgenstr 2013,
185(6), 558.
[4] J. Kuhn et al., Eur. J. Phys. (einger.).
[5] J. Kuhn et al., Phys. Teach. (einger.).
Jochen Kuhn, Jan Frübis,
TU Kaiserslauten; Thomas Wilhelm,
Uni Frankfurt; Stephan Lück,
Uni Würzburg
nicht. „Das Buch versetzt den Leser
in die Rolle einer kleinen Maus, die
auf der Schulter des Mathematikers
sitzt und ihm zuschaut“, behauptet
Villani gerne in Interviews. Sicher ist:
Die Maus wird größere Teile des
Buches überblättern, weil sie keinen
TeX-Quellcode lesen kann.
Villanis Buch ist nämlich eine
Collage aus Email-Fetzen (regelmäßig
auch in LaTeX), Auszügen aus Aufsätzen, Gedanken- und Gesprächsprotokollen, Liedertexten, Gedichten.
Dazwischen streut er sparsam ein
paar Anekdoten und einfache Erklärungen von ein bis zwei Seiten
Länge. Phasenweise liest sich das
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
255
M AG A Z I N
Buch wie der Bewusstseinsstrom
eines Spitzenmathematikers, der sich
gerne in Szene setzt (ohne allerdings
je arrogant zu wirken): „Anscheinend
bin ich ein Katalysator!“ „Und Musik
bitte, oder ich sterbe!“ Dazu passt,
dass man Villani in der Öffentlichkeit
nur in Anzug und mit einer seiner
vielen faustgroßen Spinnenbroschen
am Revers kennt.
Dennoch ist das Buch keine
Autobiographie; sein privates Leben
als Familienvater zweier Kinder
bleibt vage im Hintergrund. Ausführlicher wird es bei der Schilderung
von Villanis musikalischen Vorlieben.
Das Buch ist auch kein populärwissenschaftliches Werk, das Mathematik
erklären will. Villani schreibt eher
Literatur, wobei er sich stilistisch in
der Vergangenheit bedient: Er kreuzt
Mathematik-Poesie mit dem Stream
of Consciousness von James Joyce
und dem Dandytum von Oscar
Wilde. Vermutlich ist es diese „postmoderne Erzählweise“, die bei
Feuilletonisten Hochgefühle auslöst.
Wirklich schätzen können dieses
Buch aber wohl nur Leser, die fortgeschrittene Ahnung von Mathematik,
am Besten von Analysis, haben – für
sie ist es jedoch ein schräger, neuartiger Genuss.
Andreas Loos, HU Berlin
Licht. Die faszinierende Geschichte
eines Phänomens,
Rolf Heilmann,
256 S., geb. 19,99 1.
Herbig-Verlag,
München 2013.
ISBN: 3-776-62711-5.
„Lohnt es sich, ein Buch zu lesen, das
ausschließlich vom Licht handelt?“
Mit dieser Frage beginnt der Autor
Rolf Heilmann, Professor der Physik
in München, seine spannende und informative Reise durch die Geschichte
der Physik des Lichts. Das Buch liefert dabei einen umfassenden Überblick über verschiedene physikalische Entdeckungen, die im Zusammenhang mit dem Phänomen
Licht stehen.
256
Phys. Unserer Zeit
5/2013 (44)
Ausgehend von den griechischen
Philosophen zieht sich das Thema
Licht wie ein roter Faden durch
sämtliche Epochen der Geschichte.
Dabei liegt der Fokus auf den technischen Entwicklungen: von den
Instrumenten der Strahlenoptik, wie
Linsen, Teleskopen und Brillen, bis
hin zu modernen Halbleitersensoren,
Leuchtdioden und der wegweisenden Entwicklung des Lasers im 20.
Jahrhundert. Dabei zeigt der Autor
auch auf, wie Errungenschaften in
den Bereichen der Photonik und
Optik andere physikalische Forschungsfelder immer wieder aufs
Neue grundlegend verändert haben.
Denn viele neue Erkenntnisse in der
Kosmologie, Festkörperphysik oder
Atomphysik wären ohne ein tiefes
Verständnis des Lichts nicht möglich
gewesen. Die Erzählung endet mit
der modernen Quantenoptik und
den damit verbundenen Möglichkeiten, beispielsweise der hochpräzisen
Zeitmessung oder der Entwicklung
eines Quantencomputers.
Immer wieder widmet sich der
Autor aber auch der Frage über das
Wesen des Lichts. Die jeweiligen
physikalischen Neuerungen in einer
Epoche motivierten stets die Entwicklung einer neuen Theorie, bis
hin zur vorläufigen Klärung dieser
Diskussion im 20. Jahrhundert mit
dem Aufkommen der Quantenmechanik und der Entdeckung des WelleTeilchen-Dualismus.
Rolf Heilmann gelingt der Spagat
zwischen historischer und wissenschaftlicher Korrektheit einerseits
und verständlichen und schlüssigen
Erklärungen andererseits durchweg
sehr gut. Dabei werden auch immer
wieder interessante geschichtliche
Hintergründe und Anekdoten eingestreut. Die Beantwortung der anfänglich gestellten Frage gestaltet sich
somit relativ einfach: Dieser spannende Ausflug in die Geschichte des
Lichts lohnt sich sowohl für Physiker
als auch andere Physik-Interessierte.
www.phiuz.de
Barbara Englert,
MPI für Quantenoptik
Strom – die Gigawattrevolution, C.
Buchal, P. Wittenberg, D. Oesterwind,
228 S., Abb., brosch.
15,90 (für Schulen
7,– 1), MIC Agentur
& Verlag, Köln 2013.
ISBN: 978-3-94265817-1
Nachdem der Physiker Christoph
Buchal vom Forschungszentrum Jülich vor einigen Jahren mit dem Buch
„Energie – Kernthema der Zukunft“
ein veritables Werk mit vielen belastbaren Zahlen und Informationen vorgelegt hat, ist nun zusammen mit
zwei Koautoren ein neues Buch entstanden, das auf die Bedürfnisse der
bei weitem nicht immer sachlich geführten Diskussion zur Energiewende
zugeschnitten ist. Die Autoren leisten
keine Lobbyarbeit für irgendeine Partei, die Wirtschaft oder Umweltverbände. Das äußert sich zum Beispiel
darin, dass sie Kern- und Fusionskraftwerke gar nicht behandeln. Während
erstere in Deutschland keine Option
mehr sind, lässt sich das Potenzial der
Fusion bislang nicht abschätzen. Stattdessen schildern Buchal & Co technische und wirtschaftliche Zusammenhänge und bieten sauber recherchierte Zahlen.
Für Lehrer und Schüler, aber auch
für Physiker, dürften die Kapitel über
die Grundlagen interessant sein.
Oder wissen Sie, was Polarisationsverluste und kapazitive Blindströme
mit dem Verlegen von Erdkabeln und
dem Einsatz von HGÜ zu tun haben?
Auch die Reise in die Anfänge der
Stromerzeugung dürfte vielen Lesern
Vergnügen bereiten. Selbstverständlich gehen die Autoren auf die aktuelle Problematik der Netze und fehlenden Stromspeicher ein. Ebenfalls viel
Neues dürften die Ausführungen
über den Stromhandel an den Börsen
bieten.
Besonders erfreulich ist, dass das
Buch für Schulen gesponsert wird
und bei www.mic-schulshop.de für
7,– Euro bestellt werden kann.
TB
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
M AG A Z I N
H I S TO R I S C H E S R Ä T S E L
|
„Wenige Freunde und wenig Vermögen“
Astronomie, Medizin, Philosophie, Mathematik – kaum ein wissenschaftliches Fach, auf dem er nicht gearbeitet hat. Und wer genau
hinsieht, kann sogar heute noch Spuren seines Erfindungsgeistes
finden: Man muss sich nur hinknieen, dann kann man unter vielen
Lastwagen die typischen Getriebewellen mit dem „Knick“ entdecken.
Sie tragen seinen Namen.
Er hat es nicht gerade leicht: Seine
Mutter – eine kleine, dicke, jähzornige Frau – will nach der harten Geburt nichts von ihm wissen. Die Pest
rafft seine Amme hin, als er einen
Monat alt ist; für ihn scheinen sich
die Erreger nicht interessiert zu
haben, jedenfalls trägt er nur einige
Narben im Gesicht davon. Niemand
scheint ihn zu mögen. „Kurz gesagt:
Ich bin ein Mensch ohne körperliche
Kraft, habe wenige Freunde und
wenig Vermögen, aber viele Feinde,
von denen ich die meisten weder mit
Namen noch vom Gesicht her kenne.
Ich habe keinen gesunden Menschenverstand und auch kein gutes
Gedächtnis, aber eine ganz gute
Vorausahnung“, schreibt er in seiner
Autobiographie.
Das nützt ihm bei seinem Hauptjob: Nach einem Medizinstudium
wird er zum gefragten Arzt, der die
Größen seiner Zeit kurieren darf.
Allerdings wählt er seine Patienten
genau aus und lehnt eine ganze
Reihe von hochrangigen Angeboten
als Leibarzt ab, was wohl auch seine
Erfolgsquote erhöht.
Wenn die Medizin nicht mehr
nützt, greift er zu Astronomie und
Astrologie, worin er sich ziemlich gut
auskennt, wie er in einer ganzen
Reihe von Büchern dokumentiert. Er
untersucht die Bewegung der Sonne
und der anderen Himmelskörper,
räumt mit sieben Irrtümern über den
Saturn und andere Planeten auf
(wobei er reichlich astrologische
Spekulationen mit astronomischem
Wissen mixt) und entwickelt Theorien über Kometen, unter anderem in
seinem einflussreichen Werk „De
subtilitate“.
Andreas Loos, FU Berlin
Er hat auch einige technische
Geräte entwickelt, beispielsweise ein
Kombinationsschloss, das so ähnlich
funktioniert wie die heutigen Safeschlösser. Seinen Namen verewigt
hat er mit der eingangs erwähnten
mechanischen Aufhängung. Zwar
gibt es die schon vor ihm, doch der
Einbau in einer Kutsche von Kaiser
Karl V. macht sie unsterblich. Gleichzeitig beschäftigt er sich mit Elektrizität und Magnetismus sowie der
Konstruktion von Buchdruckpressen.
Aus den finanziellen
Nöten, die ihn immer wieder plagen,
versucht er sich übrigens mit regelmäßigem Glücksspiel zu befreien.
Um die Chancen zu berechnen,
entwickelt er erste Ansätze
der Wahrscheinlichkeitsrechnung.
(Vermutlich funktionierten seine
TREFFPUNKT TV
Strategien aber nur unzureichend,
bedenkt man seine zeitweise
Armut.) Und schließlich
entwickelt er eine Formel
zur Berechnung der Wurzeln von Gleichungen
vierten Grades, die heute nach
ihm benannt ist.
Wer war der Universalgelehrte?
Schreiben Sie die Lösung auf eine
Postkarte an: Physik in unserer Zeit,
Wiley-VCH, Boschstraße 12, 69469
Weinheim, oder per Email an: [email protected]. Absender nicht
vergessen! Einsendeschluss ist der
15.10.2013. Der Rechtsweg ist ausgeschlossen. Wir verlosen drei Exemplare des Buches Quantenphysik für
Dummies von Steven Holzner.
Lösung aus Heft 4/2013.
Die Expertin in Molekülspektroskopie war Hertha Sponer (1.9.1895 bis
27.2.1968).
Gewinner aus Heft 3/2013
T. Huyeng, Bassenheim,
T. Rosenstock, Bochum,
W. Thimm, Karlsruhe.
|
23.9., 22.00 Uhr, BR: Reiner Zufall? Die Entstehung des Kosmos.
In der Sendereihe Faszination Wissen beschäftigt sich der Astrophysiker Adi Pauldrach mit der Frage der
Anfangsbedingungen im Urknall.
19.9., 6.35 Uhr, SWR: AndréMarie Ampère und der Elektromagnetismus. Doku aus der Reihe
Meilensteine der Naturwissenschaft
und Technik über die Entdeckung
des Zusammenhangs zwischen
Magnetismus und Elektrizität.
30.9., 4.05 Uhr, Phoenix: Die
Hunde-Kosmonauten von Baikonur. Film über den Einsatz von Hunden in der sowjetischen Raumfahrt
der 1950er Jahre.
3.10., 0.50 Uhr, Phoenix: Die rote
Bombe. Dreiteiler über die Entwicklung der Atombombe in der UdSSR,
bei der Andrej Sacharow eine entscheidende Rolle spielte.
8.10., 21.00 Uhr, WDR: Auf Teilchenjagd beim CERN. Ranga
Yogeshwar zeigt in Quarks & Co,
wie das Beschleunigerexperiment
funktioniert, spricht mit den Menschen, die hier arbeiten, und unterhält sich mit dem Teilchenphysiker
Peter Higgs, dem vielleicht an diesem Tag der Physik-Nobelpreis verliehen wurde.
30.9., 4.50 Uhr, Phoenix: Die Entdeckung des Universums. Film
über die größten Entdeckungen der
Astronomie von den Aufzeichnungen
der Babylonier bis zum heutigen
19.9., 6.50 Uhr, SWR: Blaise
29.10., 21.00 Uhr, WDR: 20 Jahre
Blick in die Sterne.
Pascal und der Druck. Doku aus
Quarks & Co. Ranga Yogeshwar
derselben Reihe über Pascal, der unpräsentiert die Highlights seiner
ter anderem durch Messung des Luft- 2.10., 5.35 Uhr, BR: Grenzen des
erfolgreichen Sendung.
drucks und seiner Schwankungen
Verstehens. Diskussion zwischen
die Wettervorhersage mit Hilfe eines Harald Lesch und dem katholischen
Barometers erfand.
Priester Thomas Schwartz.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
www.phiuz.de
5/2013 (44)
Phys. Unserer Zeit
257
M AG A Z I N
M O LG A S T RO N O M I E
|
Die inverse Mayo
Mayonnaisen sind sogenannte Öl-in-Wasser-Emulsionen. Wässrige
Flüssigkeiten sind die kontinuierliche, Öl die diskontinuierliche Phase.
Aber auch inverse Emulsionen mit genau umgekehrten Phasen, wie eine
Honig-in-Olivenöl-Creme, haben ihren Reiz. Der Schlüssel zum richtigen
Emulgator ist deren Balance zwischen der Wasser- und Fettlöslichkeit.
Mayonnaisen sind standfeste Cremes,
gemixt aus Wasser, dem Emulgator
Lecithin, Salz, Säure (Zitronen-,
Limettensaft oder Essige) und reichlich Öl (Physik in unserer Zeit 2004,
35(5), 250); versetzt mit Gewürzen
nach Lust und Laune. Das Geheimnis
der hohen Stabilität verbirgt sich
hinter molekularen Eigenschaften des
Emulgators. Phospholipide, wie
Lecithin, besitzen einen stark polaren
Kopf, der für eine gute Wasserlöslichkeit des Emulgators verantwortlich
Abb. Lecithin sowie Mono- und Diglyceride, rot: lipophil,
blau: hydrophil. Honig wird von dem Emulgator in Tröpfchen
eingeschlossen (stark vereinfacht dargestellt).
ist. Lecithin lässt sich daher gut in
Wasser dispergieren.
Für „inverse Mayonnaisen“
werden aber Emulgatoren benötigt,
deren Öllöslichkeit überwiegt. Die
Wahl fällt auf das Gemisch der Monound Diglyceride, die aus „Fettmolekülen“ (Triacylglyceride) entstehen,
wenn enzymatisch ein oder zwei
Fettsäuren abgespalten werden. Der
wasserslösliche Kopf besteht aus
einer beziehungsweise zwei schwach
polaren OH-Gruppen (Hydroxylgruppen) des Glycerins, die Öllöslichkeit
der verbleibenden Fettsäuren überwiegt. Mono-und Diglyceride können
bei höheren Temperaturen im Öl
gelöst werden und bilden darin je
nach Konzentration kugel- oder
wurmförmige Mizellen: Die hydrophilen Köpfchen werden durch die
ins Öl ragenden Fettsäuren in die
Mitte gepackt, um die Freie Energie
zu minimieren.
Die Löslichkeit von nicht ionischen, also elektrisch neutralen
Emulgatoren wird durch verschiedene Faktoren bestimmt. Die Polarität
PH YS I K I M B I L D
der Kopfgruppe bestimmt die Wasserlöslichkeit, aber auch die Länge
der Fettsäuren. Sind die Fettsäuren
kurz, so ist die Wasserlöslichkeit
höher. Die Fettlöslichkeit wird
hingegen umso besser, je länger die
Fettsäuren der Emulgatoren sind und
je weniger polar und räumlich
ausgedehnt die hydrophile Kopfgruppe sind. Eine genaue Vorhersage des
thermodynamischen Verhaltens von
Emulgatoren ist daher nur unter
Berücksichtigung molekularer und
chemischer Details zu treffen.
Ein kulinarisches Beispiel für eine
„inverse Emulsion“ ist eine Mayo aus
Olivenöl, Honig sowie Mono- und
Diglyceriden. Dazu werden 100 ml
Olivenöl auf 60 °C erwärmt und
etwa 2 g Emulgator darin gelöst.
Unter tropfenweiser Zugabe von
40 g Honig und gleichzeitigem
Abkühlen und Rühren bildet sich
eine standfeste Emulsion: Zucker und
Wasser des Honigs werden von dem
Emulgator über Wasserstoffbrückenbindungen eingeschlossen. Serviert
in kleinen Tropfen aus Spritzfläschchen machen sich die süß-bitteren
und fruchtigen Noten und die ölig
cremige Textur bemerkbar, was sie
beispielsweise neben hellem Fleisch
auszeichnet.
Bezugsquelle
www.gourmantis.de
Thomas Vilgis,
MPI für Polymerforschung, Mainz
|
Im Raum der Stille
Die Übertragungsantennen moderner Satelliten reagieren empfindlich auf Störsignale, die zum Beispiel von Instrumenten im Innern des Satelliten selbst kommen
können. Deshalb müssen sie vor dem Start eingehend unter kontrollierten Bedingungen getestet werden. Dies geschieht in der Compact Payload Test Range (CPTR)
des Weltraumforschungs- und Technologiezentrums ESTEC der Europäischen
Weltraumorganisation in Holland. Die CPTR ist ein großer Faradayscher Käfig, der
die zu testende Antenne gegen äußere elektromagnetische Felder abschirmt.
Gleichzeitig werden im Innern kontrolliert Signale erzeugt, wie sie im späteren
Weltraumbetrieb zu erwarten sind. In der neuen CPTR können bis zu acht Meter
große Antennen im Frequenzbereich von 0,4 bis 50 GHz getestet werden
(www.esa.int/Our_Activities/Technology/Zone_of_silence).
258
Phys. Unserer Zeit
5/2013 (44)
www.phiuz.de
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
RÜCKBLICK
RÜCKBLICK
|
Heft 3/2013
Nichtlineare Optik – ein Dauerbrenner
Editorial
Der Mond ist aufgegangen
Planetenforschung
Schillernde Spinnennetze
Spielwiese
Laserlineal für den Kosmos
Astronomie
Optische Wirbel
Optik
Das Ohr trinkt mit
Physikdidaktik
Heft 4/2013
Bohrsches Atommodell damals und heute
Editorial
Die Geburt der modernen Atomtheorie
Physikgeschichte
Die dunkle Seite der Galaxienentwicklung
Astrophysik
Neues aus der zweiten Familie
Teilchenphysik
Luftiger Wohlklang
Physik und Musik
Stehaufmännchen, Kolumbus-Eier und ein Gömböc
Spielwiese
Das Meer-Ei
Erneuerbare Energie
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen
und dgl. in dieser Zeitschrift berechtigt nicht zu der Annahme, dass solche Namen
ohne weiteres von jedermann benutzt werden dürfen. Vielmehr handelt es sich
häufig um gesetzlich geschützte eingetragene Warenzeichen, auch wenn sie nicht
eigens als solche gekennzeichnet sind. – Alle Rechte vorbehalten, insbesondere
die der Übersetzung in fremde Sprachen. Kein Teil dieser Zeitschrift darf ohne
schriftliche Genehmigung des Verlages in irgendeiner Form – durch Photokopie,
Mikrofilm oder irgendein anderes Verfahren – reproduziert oder in eine von
Maschinen, insbesondere von Datenverarbeitungsmaschinen verwendbare
Sprache übertragen oder übersetzt werden. Nur für den persönlichen und
sonstigen eigenen Gebrauch dürfen von einzelnen Beiträgen oder Teilen von ihnen
einzelne Vervielfältigungsstücke hergestellt werden. Der Inhalt dieses Heftes
wurde sorgfältig erarbeitet. Dennoch übernehmen Autoren, Herausgeber,
Redaktion und Verlag für die Richtigkeit von Angaben, Hinweisen und Ratschlägen
sowie für eventuelle Druckfehler keine Haftung.
IM NÄCHSTEN HEFT
|
VO R SC H AU
|
Die Entdeckung des Higgs-Bosons
Nach der Auswertung weiterer Daten des LHC
gibt es kaum noch Zweifel an der Entdeckung
des lang gesuchten Higgs-Bosons. Wichtige
Eigenschaften dieses Teilchens, wie Masse, Spin
oder die Kopplungsstärke an Fermionen und
Bosonen, sind ermittelt und das Standardmodell
auf seine Konsistenz getestet worden.
Wie die Meeresspiegel steigen
Eine Folge des Klimawandels ist der Anstieg der
Meeresspiegel, der an verschiedenen Orten auf
der Erde sehr unterschiedlich ausgeprägt sein
kann. Für eine präzise Erfassung der Höhe des
Meeresspiegels sorgen ozeanographische
Satelliten. Dazu gehören seit über zehn Jahren
die Jason-Missionen.
Die Surfer im Erdschwerefeld
Mit den Satelliten GRACE und GOCE können erstmals das Schwerefeld der Erde und seine zeitlichen Variationen mit hoher Präzision vermessen
werden. Daraus lassen sich viele klimabedingte
Prozesse wie das Abschmelzen des Eises der
großen Gletschersysteme sowie Veränderungen
im kontinentalen Wasserhaushalt oder in den
Meeresströmungen ermitteln.
Erhellendes über den Dunkelstrom
PHIUZ 6/2013 erscheint Mitte November
Physik in unserer Zeit
finden Sie im Internet unter
http://www.phiuz.de
Zugriff auf Physik in unserer Zeit vom Schreibtisch aus:
Wiley Online Library bietet Vollpreis-Abonnenten Zugang
zu den Volltexten sowie zu Inhaltsverzeichnissen und
Abstracts von über 300 anderen Zeitschriften aus dem
Wiley-Programm. Sichern Sie Ihren Zugriff – wenden Sie
sich an Ihre Bibliothek.
Solarzellen aus kristallinen Siliziumwafern
stecken heute in 88 % aller weltweit produzierten
Solarmodule. Fast 60 % davon sind die günstigeren multikristallinen Silizium-Solarzellen, deren
Wirkungsgrad ein bis zwei Prozent schlechter als
beim einkristallinen Material ist. Die Ursachen
sind erst jetzt weitgehend verstanden.
Stimmiges Klavier
Nur eine gekonnt unreine Stimmung sorgt bei
Tasteninstrumenten für einen harmonischen
Gesamtklang.
© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim
www.phiuz.de
5/2013 (44)
|
Phys. Unserer Zeit
|
259
Werbung
Herunterladen