44. Jahrgang September 2013 ISSN 0031-9252 PHUZAH D 4787 5 l 2013 TEILCHENPHYSIK TECHNISCHE PHYSIK MEDIZINPHYSIK Higgs-Mechanismus Gedruckte Elektronik Photoakustik PHYSIK IN UNSERER ZEIT www.phiuz.de SPORTPHYSIK: ROTATIONEN Werbung E D I TO R I A L Arnulf Oppelt arbeitete bei Siemens in der Medizintechnik, unter anderem an MRT, Biomagnetismus und Mammographie mit Licht. Seit 2004 ist er im Ruhestand, verfolgt aber neueste Entwicklungen. Mehr Licht! eder hat schon einmal die eingeschaltete Taschenlampe mit der Hand abgedeckt und festgestellt, dass sichtbares Licht durchaus menschliches Gewebe durchdringt. Schon vor der Entdeckung der Röntgenstrahlung wurde versucht, mit Licht in den menschlichen Körper hineinzuleuchten – zum Beispiel bei der Untersuchung des Kehlkopfes. Mit dieser Diaphanoskopie wird heute noch untersucht, ob die Nasennebenhöhlen verstopft sind. J impuls von einer chemischen Verbindung absorbiert wird. Man nutzt also die Eigenschaften zweier Felder zur Bildgebung: Licht definierter Wellenlänge, um gezielt eine Molekülart zu adressieren, und Schall, um den Ort der Moleküle nachzuweisen. Beeindruckende Bilder der Kapillargefäße unter der Haut und von kleinen Tieren wurden so erzielt. igentlich ist diese Methode ein weiteres Beispiel für den von Paul Christian Lauterbur geprägten Begriff Zeugmatographie für „das, was zusammenführt“ (aus dem Altine breite Anwendung von Licht in der medizinischen griechischen). Dieser Begriff konnte sich nicht durchsetBildgebung existiert jedoch nicht, dabei ist seine Wechzen, weil er etwas kryptisch ist. Lauselwirkung mit Gewebe durchaus atterbur benutzte ihn für die Magnetretraktiv. Beispielsweise kann man spekIN GEWEBE VERLIERT sonanztomographie (MRT), für deren troskopisch gezielt chemische VerbinLICHT DIE RICHTUNG Erfindung er 2003 den Medizin-Nodungen nachweisen. In Gewebe lassen belpreis erhielt. Dabei ermöglichen sich im Wesentlichen vier Absorptiein Hochfrequenz- und ein Magnetfeld onsbanden identifizieren: Im nahen Indie Bildgebung über den Effekt der frarot absorbieren reduziertes HämoKernspinresonanz, in der photoakustischen Tomographie globin bei 760 nm und oxidiertes Hämoglobin bei 840 nm, sind es das Licht- und das Schallfeld, die „zusammenfühbei 930 nm beobachtet man Schwingungen der Methylenren“. gruppen von Fettsäuren und bei 975 nm Schwingungen der OH-Gruppen von Wasser. Durch Messung der Absorption bei 760 nm und 840 nm kann man also Aussagen zur Durchrotz der bereits vorliegenden Aufnahmen von Blutgeblutung und Sauerstoffversorgung gewinnen. fäßen unter der Haut mit photoakustischer Tomographie bedarf die Anwendung am Patienten den Nachweis tiefer liegender Strukturen. Dazu zählen Tumore in der weibas Problem ist jedoch, dass sich Licht im Gewebe nicht lichen Brust. Die gut eingeführten Verfahren Röntgen, Ulgeradlinig ausbreitet, sondern stark gestreut wird. traschall und Magnetresonanztomographie sind hier der Scharf abbilden kann man nur Gewebeveränderungen, die Goldstandard. Ein konkurrierendes Verfahren muss mögdicht an der Oberfläche liegen. Moderne Technik eröffnet lichst gleiche oder bessere diagnostizierbare Ergebnisse liejedoch Möglichkeiten, den Effekt der Lichtstreuung im Gefern und kostengünstiger sein. Allein als Ergänzung verlänwebe wirksam zu kompensieren. Am Austrittspunkt von gert es nur die Untersuchungszeit und erhöht den AufLicht, das zuvor in Gewebe eingestrahlt wurde, haben die wand – das ist aber selten gerechtfertigt. Photonen, die auf dem direkten Weg dorthin gelangen, eine kürzere Laufzeit als die gestreuten. Tastet man also ein Objekt mit Lichtimpulsen ab und misst allein den Anfang des m Hinblick auf die photoakustische Tomographie sollte empfangenen Impulses, dann weist man nur die wenig geman sich auch der grundsätzlichen Einschränkungen bestreuten (ballistischen) Photonen nach. So kann man tiefer wusst sein: Licht wird nun einmal im Gewebe gestreut, in gelegene Strukturen darstellen. Doch trotz des immensen der Tiefe verteilt sich die eingestrahlte Intensität also auf technischen Aufwands – es sind Zeitfenster von einigen zig einen großen Bereich. Ob es dann trotzdem gelingt, tief Picosekunden erforderlich – versagt das Verfahren bei diliegende Strukturen so stark anzuregen, dass ein nachweisckeren Gewebeschichten. Nach etlichen Zentimetern sind bares Schallfeld entsteht, ist noch nicht gesichert. Man darf nämlich sämtliche ballistischen Photonen durch Streuung gespannt sein, ob das möglich wird. verloren gegangen. E E T D I a ist die Nutzung des altbekannten photoakustischen Effekts schon aussichtsreicher, den Günther Paltauf in diesem Heft vorstellt. Die Ortsauflösung wird hier durch das Schallfeld vermittelt, das sich ausbildet, wenn ein Licht- D © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 211 I M PR E SS U M | PHYSIK Verlag WILEY-VCH Verlag GmbH & Co. KGaA Weinheim, Boschstraße 12, Postfach 10 11 61, 69451 Weinheim; Telefon +49 (0)62 01/6 06-0, Telefax +49 (0)62 01/6 06-3 28 Redaktion Dr. Thomas Bührke, Wiesenblättchen 12, 68723 Schwetzingen, Telefon +49 (0)62 02/5 77 97 49 Roland Wengenmayr, Konrad-Glatt-Straße 17, 65929 Frankfurt/M., Telefon +49 (0)69/30 85 41 76 [email protected] Kuratorium Stefan Brönnimann, Bern Silke Bühler-Paschen, Wien Günter Lugert, Erlangen Hinrich Meyer, Hamburg Thomas Müller, Karlsruhe Gerhard Rempe, Garching Elke Scheer, Konstanz Michael Vollmer, Brandenburg Herstellung Marita Beyer, Telefon +49 (0)62 01/6 06-2 68, Telefax +49 (0)62 01/6 06-9 12 05. Anzeigen: Nicole Schramm, Telefon +49 (0)62 01/6 06-5 59, Telefax +49 (0)62 01/6 06-5 50. Abonnenten-Service: Telefon: 0800/1800536 (innerhalb Deutschland), +44 (0)1865476721 (außerhalb Deutschland) E-Mail: [email protected] Abonnementpreise (inklusive Versand und MwSt.) für 12 Monate/ 6 Hefte: Persönliche Bezieher: A 135,89, Studenten: A 81,32 (print), A 80,92 (online), Institutionelle Bezieher: A 285,69 (print), A 317,73 (online), A 345,78 (print und online). Studentische Abonnenten werden gebeten, ihrer Bestellung eine Kopie der Immatrikulationsbescheinigung beizulegen. Persönliche Abonnements dürfen nicht an Bibliotheken verkauft oder als Bibliotheksexemplare benutzt werden. Abbestellungen nur bis spätestens 3 Monate vor Ablauf des Bezugsjahres. Satz: TypoDesign Hecker, Leimen. © WILEY-VCH Verlag GmbH & Co. KGaA Weinheim, 69451 Weinheim, 2013. Printed in the Federal Republic of Germany. ISSN 0031-9252 | w w w. p h i u z . d e EDITORIAL | 211 Mehr Licht! Arnulf Oppelt TEILCHENPHYSIK Phys. Unserer Zeit 5/2013 (44) | | 220 Wie Teilchen zu ihrer Masse kommen Robert Harlander TECHNISCHE PHYSIK | 228 Smart und flexibel Henning Rost |Jürgen Krumm |Katrin Riethus | Klaus Ludwig 220 Wie Teilchen zu ihrer Masse kommen Mit der Entdeckung des Higgs-Teilchens hat die Physik beim Verständnis der Natur einen entscheidenden Schritt nach vorne gemacht. Der bereits vor mehr als 40 Jahren vorgeschlagene Higgs-Mechanismus ist im Kern die Folge eines grundlegenden Symmetrieprinzips. 228 Smart und flexibel Druck und Bindung: ColorDruck, Leimen. 212 IN UNSERER ZEIT Gedruckte Elektronik wird mit „elektronischen Tinten“ hergestellt. Diese Tinten werden durch Rolle-zu-Rolle-Druckverfahren sehr präzise auf großflächige, flexible Substrate aufgebracht. Die günstige Elektronik eröffnet neue Anwendungsfelder, die konventioneller Siliziumelektronik bisher nicht oder nur eingeschränkt zugänglich waren. | I N H A LT 5|2013 T R E F F P U N K T FO R SC H U N G SPORTPHYSIK 214 Wann ist Schrödingers Katze wirklich tot? 215 Dreiwandige Kohlenstoff-Nanoröhren atmen lassen 217 Kernstruktur von Exoten 218 Kein Hinweis auf Majorana-Teilchen 219 Der Berg ruft 219 Physics News | 236 Die Sache mit dem Dreh Sigrid Thaller | Leopold Mathelitsch SPIELWIESE M AG A Z I N | 240 Manchmal hilft nur Trägheit H. Joachim Schlichting | Christian Ucke MEDIZINPHYSIK | 244 Ultraschall aus Licht Günther Paltauf 236 Die Sache mit dem Dreh Perfekte Drehungen sind beim Geräteturnen, Trampolin- und Turmspringen ein Muss. Für manche Techniken liefern fallende Katzen ein gutes Vorbild. Foto: Fotolia.de, M. Webhofer | 251 252 253 255 257 257 258 | Das Splittern nach dem Schuss Lehrerfortbildung Smartphone als Geigerzähler Bücher „Wenige Freunde und wenig Vermögen“ Treffpunkt TV Die inverse Mayo 244 Ultraschall aus Licht Optische Bildgebung in der Medizin ist wegen der starken Lichtstreuung in biologischem Gewebe meist auf Körperoberflächen beschränkt. Der photoakustische Effekt macht tiefere Bereiche zugänglich, indem er mit Licht dort über Absorption Ultraschall erzeugt. Diese Methode kann zum Beispiel Blutgefäße besser sichtbar machen als andere bildgebende Verfahren. 240 Manchmal hilft nur Trägheit Was auf den ersten Blick wie ein simples Geduldsspiel erscheint, ist in Wirklichkeit ein raffiniertes physikalisches Spielzeug: die Kugelwippe. Was mit Geduld nur sehr schwer zu erreichen ist, gelingt mit einem physikalischen Trick. 5/2013 (44) | Phys. Unserer Zeit | 213 T R E F F P U N K T FO R SC H U N G Q UA N T E N PH YS I K | Wann ist Schrödingers Katze wirklich tot? Moderne Experimente bestätigen die Gesetze der Quantenmechanik auf immer größeren Skalen. Dabei stellt sich die Frage, wo der Übergang vom quantenmechanischen zum klassischen Verhalten stattfindet und ob das quantenmechanische Superpositionsprinzip seine Gültigkeit verliert. Wir haben ein Maß vorgeschlagen, das es ermöglicht, unterschiedliche quantenmechanische Experimente danach zu bewerten, wie sehr sie unser alltägliches, klassisches Weltbild in Frage stellen [1]. ABB. 1 M A K ROS KO PI Z I T Ä T Werte des logarithmischen Makroskopizitätsmaßes µ für eine Auswahl historischer Superpositionsexperimente mit Neutronen, Atomen, Molekülen und Ringströmen [1]. Schrödingers Wellenmechanik hat sich seit ihrer Entdeckung vor fast 90 Jahren zu einem überaus tragfähigen Grundpfeiler der modernen Physik entwickelt. Ursprünglich für die Beschreibung der atomaren Welt konzipiert, gibt es bisher keine Indizien für die Grenzen ihrer Gültigkeit. Überlagerungen stationärer Ringströme aus Billionen von Elektronen [2] in supraleitenden SQUIDs sagt sie genauso glänzend vorher wie Interferenzexperimente mit Molekülen aus Hunderten von Atomen [3]. Die Experimente werden aufwändiger und die Quantensysteme immer „makroskopischer“. Womöglich lassen sich bald sogar Superpositionen von schwingenden mikromechanischen Spiegeln oder das Wellenverhalten winziger Quarzkugeln beobachten [4, 5]. Was aber unterscheidet 214 Phys. Unserer Zeit 5/2013 (44) einen makroskopischen von einem mikroskopischen Quanteneffekt? Die Schrödinger-Gleichung beschreibt die Beugung am Doppelspalt für ein Neutron genau so wie für ein großes Molekül – in beiden Fällen interferiert ein Bewegungsfreiheitsgrad mit sich selbst, der Schwerpunkt. Macht also die Masse den Unterschied oder die Zahl der über beide Spalte verschränkten Elementarteilchen? Ist der Spaltabstand entscheidend oder die Länge des Interferometers? Jeder dieser Aspekte scheint relevant zu sein, aber die Wahl des besten Größenkriteriums fällt schwer. Wir schlagen ein universelles Kriterium vor, das den Grad der Makroskopizität daran bemisst, wie sehr die Quantenmechanik auf die Probe gestellt wird. Im Grunde testet jedes Superpositionsexperiment die Gültigkeit der Quantentheorie. Wenn im Doppelspaltversuch Interferenzstreifen mit erwartet hohem Kontrast beobachtet werden, bestätigt dies die Theorie. Misst man mit großen Teilchen deutlich schwächere Streifen, so mag das viele Ursachen haben. Einige davon sind Alternativhypothesen, die besagen, dass die Gesetze der Quantenmechanik ab einer gewissen Größenordnung von den Gesetzen der klassischen Physik abgelöst werden. Das lässt sich etwa erreichen, indem man die Schrödinger-Gleichung derart modifiziert, dass delokalisierte Wellenfunktionen hinreichend großer Objekte spontan kollabieren [6]. Nobelpreisträger Anthony Leggett spricht hier von Makrorealismus [7]. www.phiuz.de Superpositionen würden demnach in klassische Mischzustände zerfallen, die nicht mehr interferenzfähig sind und Newtons Bewegungsgleichungen folgen. Jede makrorealistische Alternativhypothese stellt also einen Eingriff in die Dynamik quantenmechanischer Zustände dar. Die Schwere dieses Eingriffs können wir beispielsweise daran festmachen, nach welcher Zeit τe Superpositionszustände eines einzelnen Elektrons kollabieren würden. Unser Kriterium lautet nun: Ein Quantenphänomen ist umso makroskopischer, je größer die Menge makrorealistischer Hypothesen ist, die durch seine Beobachtung im Experiment falsifiziert werden. So schneidet etwa der Doppelspaltversuch mit einem Elektron sehr schlecht ab, weil er nur solche (abwegigen) Möglichkeiten ausschließt, welche die Quantentheorie bereits auf atomarer Ebene modifizeren und eine sehr kurze Kollapszeit τe pro Elektron vorhersagen. Der gleiche Versuch mit einem 40 nm großen Quarzkügelchen [5], das aus mehr als zwei Millionen Atomen besteht, würde hingegen um Größenordnungen besser abschneiden. Objektive Vergleiche lassen sich anstellen, sobald man eine gemeinsame mathematische Form für die Auswirkungen makrorealistischer Modifikationen auf die Bewegung von Quantenzuständen findet. Wir stießen auf eine solche Form über eine Reihe minimaler Konsistenz- und Symmetrieforderungen [1], die jede hypothetische Modifikation erfüllen sollte, um die Prinzipien der nichtrelativistischen Physik nicht zu stark zu beschädigen. Unsere Betrachtungen führen auf ein logarithmisches Maß µ, das die Makroskopizität eines quantenmechanischen Experiments angibt und in das Äquivalent eines einzelnen isolierten Elektrons umrechnet. Damit lassen sich Experimente miteinander vergleichen, wie in Abbildung 1 für eine repräsentative Auswahl aufgetragen. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim T R E F F P U N K T FO R SC H U N G Der Wert von 5,2, der im Jahr 2000 bei der Messung überlagerter Ringströme [2] in SQUIDs erreicht wurde, entspricht beispielsweise dem Äquivalent eines Elektrons, das für mehr als einen Tag in einem Superpositionszustand gehalten würde. Die höchste bisher erreichte Makroskopizität liegt bei 12. Sie wurde in Interferenz-Experimenten mit alkylierten Fullerenmolekülen an der Universität Wien aufgrund der hohen Teilchenmasse erzielt [3]. Atomexperimente profitieren hingegen von langen Interferenzzeiten. M AT E R I A L FO R S C H U N G Mittlerweile gibt es zahlreiche Vorschläge, die Makroskopizität deutlich zu steigern. Der erwähnte Doppelspaltversuch mit Quarzkügelchen würde einen Wert über 20 erreichen, was 1020 Sekunden Interferenzzeit eines Elektrons entspräche – ein Vielfaches der Lebensdauer des Universums. Unsere Alltagswelt ist selbst davon weit entfernt. Könnte man eine Katze für eine Sekunde in Superposition bringen, entspräche das einer Makroskopizität von 57, äquivalent einer Interferenzzeit eines Elektrons von 1057 Sekunden, sprich dem 1040-fachen Weltalter. | Literatur [1] S. Nimmrichter, K. Hornberger, Phys. Rev. Lett. 2013, 110, 160403. [2] J. Friedman et al., Nature 2000, 406, 43. [3] K. Hornberger et al., Rev. Mod. Phys. 2012, 84, 157. [4] W. Marshall et al., Phys. Rev. Lett. 2003, 91, 130401. [5] O. Romero-Isart et al., Phys. Rev. Lett. 2011, 107, 020405. [6] A. Bassi et al., Rev. Mod. Phys. 2013, 85, 471 [7] A. J. Leggett, J. Phys. Condens. Matter 2002, 14, R415. Stefan Nimmrichter, Klaus Hornberger, Uni Duisburg-Essen ABB. 1 NANORÖHREN Dreiwandige Kohlenstoff-Nanoröhren atmen lassen Moderne Verfahren können gezielt kombiniert werden, um interessante nanoskalige Materialien, wie dreiwandige Kohlenstoff-Nanoröhren, herzustellen. Eine Forschungsgruppe am Massachusetts Institute of Technology (MIT), an der Wissenschaftler der Universität Hamburg beteiligt waren, hat solche Nanoröhren mit Lasern spektroskopisch charakterisiert [1]. Ein spannender Aspekt dieser experimentellen Ergebnisse betrifft die Wechselwirkungen im Innern von mehrwandigen Kohlenstoff-Nanoröhren. Kohlenstoff-Nanoröhren besitzen außergewöhnliche mechanische, elektrische und thermische Eigenschaften und sind somit von großem Interesse für zahlreiche interdisziplinäre Forschungsgebiete. Das breite Anwendungsspektrum umfasst unter anderem den Einsatz in Quanteninformationstechnologien, in der Medizintechnik und in modernen Kompositwerkstoffen für den Flugzeugbau [2]. Unter Kohlenstoff-Nanoröhren versteht man einen oder mehrere ineinander geschachtelte, konzentrische, molekulare Hohlzylinder. Die einfachste Form ist die einwandige Kohlenstoff-Nanoröhre (Single-Walled Carbon Nanotube, SWCNT). Sie besteht wie Graphen aus hexagonal angeordneten Kohlenstoffatomen, die durch kovalente Doppelbindungen miteinander verbunden sind (Abbildung 1a). Der geometrische Typus einer solchen SWCNT bestimmt ihre elektronischen Transporteigenschaften: Nanoröhren mit ArmsesselStruktur sind metallisch leitend (M), solche mit Zickzack-Struktur überwiegend halbleitend (S) [3]. Ein komplexeres System sind doppelwandige Kohlenstoff-Nanoröhren (Double-Walled Carbon Nanotubes, DWCNTs). Sie bestehen aus zwei durch Van-der-Waals-Kräfte miteinander schwach wechselwirkende SWCNTs (Abbildung 1b) und besitzen eine deutlich höhere mechanische Festigkeit und eine verbesserte thermische Stabilität als ihre einwandigen Pendants [4]. Die elektrische Leitfähigkeit gestaltet sich bei DWCNTs allerdings deutlich komplizierter, da hier vier verschie- © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Schematischer Querschnitt einer ein-, doppel- und dreiwandigen Kohlenstoff-Nanoröhre. Eine SWCNT ist je nach ihrer geometrischen Struktur halbleitend (S) oder metallisch leitend (M). Bei DWCNTs gibt es vier verschiedene Flavours (innere@äußere Nanoröhre), die die Leitungseigenschaft des Systems festlegen. Eine TWCNT ermöglicht es, die verschiedenen Wechselwirkungen im Detail zu erforschen [1]. dene Kombinationsmöglichkeiten (Flavours) existieren und sich diese grundlegend in ihren elektrischen Eigenschaften sowie in ihrem Einfluss auf die systeminternen Schwingungsmoden unterscheiden. Ein besseres Verständnis dieser flavourabhängigen Eigenschaften bei DWCNTs könnte deren Verwen- www.phiuz.de 4/2013 (44) Phys. Unserer Zeit 215 T R E F F P U N K T FO R SC H U N G dungsbereich deutlich erweitern. Interessant wäre das zum Beispiel für die Entwicklung von molekularen Schaltkreisen, da sich diese aus Nanoröhren-Transistoren aufbauen lassen [4]. Um die Leitfähigkeit einer solchen DWCNT genauer studieren zu können, ist es notwendig, sie von der Wechselwirkung mit der Umgebung zu isolieren. Zu diesem Zweck wurden dreiwandige KohlenstoffNanoröhren (Triple-Walled Carbon Nanotubes, TWCNTs) hergestellt [5], bei denen die äußerste Röhre die innere DWCNT von den Umgebungswechselwirkungen abschirmt (Abbildung 1c). Dadurch ist es möglich, den Einfluss der schwachen Van-derWaals-Wechselwirkungen zwischen den inneren beiden Nanoröhren isoliert zu betrachten. Die Charakterisierung dieser TWCNTs erfolgt durch RamanSpektroskopie. Hierbei werden die Kohlenstoffatome einer Nanoröhre durch resonante Lasereinstrahlung zu Schwingungen angeregt. Die kohärente Schwingung entlang des Radius, die sogenannte radiale Atmungsmode, ist die wichtigste spektroskopische Signatur einer Kohlenstoff-Nanoröhre. Mit ihrer Kenntnis können viele relevante Eigenschaften, wie der NanoröhrenDurchmesser, in Erfahrung gebracht werden [3]. Einzelne TWCNTs wurden untersucht, indem man diese auf einem Siliziumsubstrat präpariert hat. Mit verschiedenen Lasern gelang es, die zwei inneren Nanoröhren von fünf einzelnen TWCNTs gezielt optisch resonant anzuregen und die zugehörigen Flavours zu identifizieren (Abbildung 2). Die Ergebnisse zeigen, dass die Van-der-Waals-Wechselwirkungen zwischen den beiden inneren Nanoröhren nicht nur von deren Abstand abhängen, sondern darüber hinaus auch eine Flavourabhängigkeit besitzen: Die Van-derWaals-Wechselwirkung ist stärker, wenn die innerste Nanoröhre halbleitend ist, als wenn diese metallisch leitend ist. Im letzteren Fall sind die 216 Phys. Unserer Zeit 5/2013 (44) ABB. 2 R A M A N - S PE K T R E N , , , , , , , , / Eine für Kohlenstoff-Nanoröhren einzigartige spektroskopische Signatur ist die radiale Atmungsmode, deren Frequenz invers proportional zum Durchmesser der Nanoröhre ist. Die Abbildung zeigt Raman-Spektren von fünf einzelnen TWCNTs mit drei verschiedenen Flavours der inneren, isolierten DWCNTs [1]. Wechselwirkungen so schwach ausgeprägt, dass man die innerste, metallisch leitende Nanoröhre als nahezu perfekt von ihrer Umgebung isoliert betrachten kann. Besonders interessant wird es sein, den Herstellungsprozess der Nanoröhren eingehender zu untersuchen und herauszufinden, wie man die Van-der-Waals-Wechselwirkungen zwischen den Nanoröhren minimieren kann. Der Fokus zukünftiger Forschung wird auf einer genaueren Charakterisierung dieses Abschirmungseffekts liegen. Für Anwendungen in der modernen Nanotechnologie könnte dieser Effekt von großer Bedeutung sein, da er eine spezifischere Verwendung von DWCNTs gewährleistet. Die Initiative Wissenschaft in die Schulen! (WiS) will Schülerinnen und Schüler an Themen der aktuellen Forschung heranführen. Hierfür stellt sie Lehrern auf www.wissenschaftschulen.de Originalartikel aus www.phiuz.de Literatur [1] T. Ch. Hirschmann et al., ACS Nano 2013, 7, 2381. [2] R. H. Baughman et al., Science 2002, 297, 787. [3] A. Jorio et al., Raman Spectroscopy in Graphene Related Systems, Wiley-VCH, Weinheim 2011. [4] C. Shen et al., Nanoscale 2011, 3, 503. [5] H. Muramatsu et al., Adv. Mater. 2011, 23, 1761. Thomas Ch. Hirschmann, Kornelius Nielsch, Uni Hamburg Andreas Reichegger, Uni Heidelberg Physik in unserer Zeit und anderen Zeitschriften sowie zusätzliches, von erfahrenen Didaktikern erstelltes Unterrichtsmaterial kostenlos zur Verfügung. Die Beiträge aus Physik in unserer Zeit finden Sie auf www.wissenschaft-schulen.de/ alias/physik-in-unserer-zeit/ 1161208. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim T R E F F P U N K T FO R SC H U N G K E R N PH YS I K | ABB. 1 I S O LT R A P Kernstruktur von Exoten Die Massen von Radionukliden sind wichtig, um Kernmodelle zu testen oder astrophysikalische Fragestellungen, wie den Aufbau von Neutronensternen, zu beantworten. Aufgrund ihrer oft geringen Halbwertszeit lassen sie sich jedoch nur schwer messen. Kürzlich gelang es der ISOLTRAP-Gruppe am Forschungszentrum CERN, die Massen von 54Ca und 82Zn mit hoher Genauigkeit zu bestimmen [1]. Damit erhält man Aufschluss über das Wirken von Dreikörperkräften innerhalb des Atomkerns sowie über die Elemententstehung in der Kruste von Neutronensternen. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Die radioaktiven Ionen erreichen zunächst eine lineare Hochfrequenzfalle, in der sie gekühlt und gebündelt werden. Anschließend gelangen sie in das Multireflexions-FlugzeitMassenspektrometer (MR-ToF MS), in dem die Ionen separiert werden. Außerdem kann über die Flugzeit der Ionen auf das Ladung-zu-Masse-Verhältnis geschlossen werden. Über die erste Penning-Falle, in der die Ionen weiter abgekühlt werden und eine weitere Separation möglich ist, erreichen die Ionen die zweite Penning-Falle. In dieser lässt sich wiederum das Ladung-zu-Masse-Verhältnis der Ionen bestimmen, indem man die Zyklotronfrequenz ?, der um die Magnetfeldlinien kreisenden Ionen, misst. ABB. 2 N E U T RO N E N S T E R N 0m 56FE 62 64Ni 66 100m 86Kr u Kr re u e n in Kr re e ß äu N≈50 st K ern e R=10km e und 54Ca [1]. Allerdings schlossen die geringe Produktionsrate sowie die kurze Halbwertszeit (lediglich 90 ms bei 54Ca) eine Messung in einer Penning-Falle aus. Dafür wurde erstmals eine neue ISOLTRAP-Komponente, das Multireflexions-FlugzeitMassenspektrometer [2], zur Bestimmung der Masse kurzlebiger Nuklide eingesetzt (Abbildung 1). Damit erzielten wir eine relative Unsicherheit im Bereich von 10–6. Bei der Flugzeit-Massenspektrometrie erfahren alle Ionen in einem elektrostatischen Feld die gleiche Kraft und werden daher bei unterschiedlicher Masse auf verschiedene Geschwindigkeiten beschleunigt. Deswegen kommen sie nach Durchlaufen einer Driftstrecke nacheinander am Detektor an – die leichten zuerst, die schweren später: Es entsteht ein Flugzeit-Massenspektrum. Die Auflösung des Spektrums ist durch die Länge der Driftstrecke von etwa einem Meter begrenzt. Indem die Teilchen zwischen zwei elektrostatischen „Ionenspiegeln“ hin und her reflektiert werden, verlängert sich die Driftstrecke auf mehrere hundert Meter, ohne Vergrößerung der Anlage. Mit der Massenmessung von 54Ca konnten die Vorhersagen der neuen Ab-inito-Rechnungen überzeugend bestätigt werden. Diese Resultate unterstreichen deren Bedeutung in der modernen Kerntheorie, auch gerade deshalb, weil die Beschreibung konsistent auf reine Neutronenmaterie ausgeweitet werden konnte. Neben der Frage, wie sich magische st Aus den Massen der Atomkerne ergeben sich gemäß der Formel E = mc 2 die Energien, mit denen die Nukleonen, die Protonen und Neutronen, im Kern gebunden sind. Besonders hohe Bindungsenergien findet man bei Kernen mit „magischen“ Protonen- und Neutronenzahlen, bei denen die Kernbestandteile geschlossene Schalen bilden. Bei den leichten Kernen wird eine Reduzierung dieses Effekts als „shell quenching“ bezeichnet, während umgekehrt eine Erhöhung auf die Existenz einer neuen magischen Zahl hinweisen kann. Atomkernen mit einem großen Ungleichgewicht zwischen Protonen und Neutronen kommt dabei eine besondere Bedeutung für das Verständnis der im Kern wirkenden Kräfte zu. Vor kurzem wurde eine neue Klasse von Ab-inito-Rechnungen mit realistischen Potentialen zur Beschreibung entwickelt, die neben der Wechselwirkung zwischen zwei Nukleonen nun auch die zwischen dreien einschließt. Unter Berücksichtigung dieser Dreikörperkräfte sagt das neue Kernmodell für KalziumIsotope (Protonenzahl Z = 20) neben den bekannten Schalenabschlüssen bei Neutronenzahlen N = 20 und N = 28 eine neue magische Konfiguration bei N = 32 vorher. Um diese Vorhersage zu überprüfen, ist es notwendig, die Masse der Nuklide 51Ca bis 54Ca zu messen. Dem ISOLTRAP-Experiment (L. Schweikhard et al., Physik in unserer Zeit 2009, 40(4), 175) gelang erstmalig die Bestimmung der Masse von 53Ca 200m 84Se 82Ge 80Zn Schalenförmiger Aufbau eines Neutronensterns (links) mit einem Radius von 10 km und einer 1,4-fachen Sonnenmasse, bestehend aus der Atmosphäre (nicht gezeigt), der äußeren und inneren Kruste sowie dem Kern. Rechts das Tiefenprofil der äußeren Kruste mit expermentell bekannten Massen bis zu einer Tiefe von 223 m. Grün markiert sind Nuklide mit Neutronenzahl N˜50 (aus [4]). www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 217 T R E F F P U N K T FO R SC H U N G Zahlen in exotischen Kernen entwickeln, ist deren Bedeutung unter extremen astrophysikalischen Bedingungen Gegenstand aktueller Forschung – zum Beispiel beim Aufbau von Neutronensternen, die im Wesentlichen aus Neutronen bestehen. Neutronensterne besitzen einen Durchmesser von etwa 20 Kilometern, beinhalten aber etwa die 1,4-fache Masse unserer Sonne und sind damit die kompaktesten Objekte im beobachtbaren Universum. Durch die extremen Drücke und Dichten, die in den äußersten Neutronensternschichten – der Kruste – vorherrschen, entsteht dort eine Reihe von sehr neutronenreichen Elementen (Abbildung 2). Bei Kollisionen mit einem weiteren Neutronenstern könnten diese freigesetzt werden und so die Häufigkeitsverteilung der Elemente im Universum bereichern. T E I LC H E N PH YS I K Die Massen exotischer Nuklide in der Nähe magischer Zahlen geben Aufschluss über die elementare Zusammensetzung der Kruste. In einem weiteren Experiment gelang die Massenbestimmung von 82Zn (Halbwertszeit 228 ms) in der Penning-Falle des ISOLTRAP-Aufbaus mit der extrem kleinen relativen Unsicherheit von 4 · 10–8 – hinreichend, um die Zusammensetzung der Neutronensternkruste bis in neue Tiefen festzulegen. Die revidierte Bindungsenergie von 82Zn führte dazu, dass dieses Nuklid in der Kruste nicht mehr vorkommt [3]. Darauf aufbauend wurden verschiedene Massenmodelle im Hinblick auf die Zusammensetzung der Neutronensternkruste untersucht, die ausnahmslos das obige Ergebnis bestätigen [4]. Ein weiteres Ergebnis: Selbst in der äußeren Kruste spielen die magi- | Kein Hinweis auf Majorana-Teilchen Das Neutrino ist elektrisch neutral, weswegen es theoretisch sein eigenes Antiteilchen sein kann. Trifft dies zu, so wäre es ein sogenanntes Majorana-Teilchen, was erhebliche Auswirkungen auf das Standardmodell hätte. In diesem Fall müsste sich dies in dem extrem seltenen neutrinolosen Doppelbeta-Zerfall äußern. Das derzeit empfindlichste Experiment namens GERDA fand jedoch bei dem Isotop Germanium-76 keinen Hinweis auf diese Zerfallsart und erbrachte die neue Untergrenze für dessen Halbwertszeit von 2,1 · 1025 Jahren. Beim normalen Betazerfall wird aus einem Neutron im Kern ein Proton, ein Elektron und ein Antineutrino. Für Kerne wie Ge-76 ist dieser Zerfall energetisch verboten, aber die gleichzeitige Umwandlung von zwei Neutronen unter Emission zweier Neutrinos ist möglich und wurde kürzlich von GERDA (Germanium Detector Array) mit bisher unerreichter Präzision gemessen. Es handelt sich um einen der seltensten jemals beobachteten Zerfälle mit einer Halbwertszeit von etwa 2 · 1021 Jahren – entsprechend dem rund 100-milliardenfachen Alter des Universums. 218 Phys. Unserer Zeit 5/2013 (44) Im neutrinolosen DoppelbetaZerfall wird das Antineutrino des einen Betazerfalls vom zweiten betazerfallenden Neutron als Neutrino absorbiert – was nur möglich ist, wenn Neutrino und Antineutrino identisch sind. Ist dies der Fall, so ließe sich möglicherweise die Baryonen-Asymmetrie im Urknall mit den Neutrinos und nicht wie häufig vermutet mit der CP-Verletzung bei Baryonen erklären. GERDA startete die Messung im Herbst 2011 zunächst mit 18, später mit insgesamt 28 Kilogramm angereichertem Ge-76. Nach der ersten Messphase hatte das Experiment www.phiuz.de schen Neutronenzahlen N = 50 und N = 82 eine große Rolle, die existierenden Nuklide liegen oft entlang von diesen Isotonenketten, das heißt, die Atomkerne gehören zu verschiedenen Elementen, haben aber die gleiche Anzahl an Neutronen. Literatur [1] F. Wienholtz et al., Nature 2013, 498, 346. [2] R. N. Wolf et al., Int. J. Mass Spectrom., im Druck, DOI: 10.1016/j.ijms.2013.03.020 [3] R. N. Wolf et al., Phys. Rev. Lett. 2013, 110, 041101. [4] S. Kreim et al., Int. J. Mass Spectrom., im Druck, DOI: 10.1016/j.ijms.2013.02.015. Susanne Kreim, CERN, Genf und MPI für Kernphysik, Heidelberg; Lutz Schweikhard, Frank Wienholtz, Robert Wolf, Uni Greifswald 21 kg·Jahre an Daten gesammelt. Die Analyse ergab kein Signal des neutrinolosen Doppelbetazerfalls, was zu der weltbesten Untergrenze für dessen Halbwertszeit führt. Zusammen mit den Ergebnissen anderer Experimente schließt dieses Resultat eine frühere Behauptung, ein Signal gefunden zu haben, aus (Physik in unserer Zeit 1998, 29(3), 123; 2002, 33(4), 155). Damit bleibt zwar die Frage derzeit noch offen, ob Neutrinos ihre eigenen Antiteilchen sind; die neuen einschränkenden Resultate von GERDA haben jedoch bereits Konsequenzen für das Wissen über Neutrinomassen, Erweiterungen des Standardmodells, astrophysikalische Prozesse und Kosmologie. In einem nächsten Schritt will die GERDA-Kollaboration, die Wissenschaftler aus 16 europäischen Forschungsinstituten und Universitäten umfasst, zusätzliche neue Detektoren einsetzen und damit die Menge von Ge-76 in GERDA verdoppeln. Links zu den Publikationen auf: www.mpi-hd.mpg.de/gerda/public/ index.html TB © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim T R E F F P U N K T FO R SC H U N G PL A N E T E N FO R S C H U N G PH YS I C S N E WS | Der Berg ruft Ein Jahr nach seiner Landung auf dem Mars am 6. August 2012, hat der Rover Curiosity nur etwas mehr als einen Kilometer zurückgelegt, dabei jedoch einige interessante Funde gemacht. Nun soll er die acht Kilometer lange Fahrt zum Zentralberg Mount Sharp antreten. Dort erwartet ihn die eigentlich Missionsaufgabe: die Analyse von Sedimentschichten. Abb. 1 Ansammlung von kieselartigen Steinen auf dem Mars (links) und eine ähnliche Formation auf der Erde (rechts) (Fotos: NASA/JPL-Caltech/MSSS und PSI) Eines der wertvollsten neuen Werkzeuge an Bord des 900 kg schweren Rovers ist ein Bohrer, mit dem sich Proben bis aus sechs Zentimeter tiefen Gesteinslöchern entnehmen lassen. Curiosity hat zwei solche Bohrproben entnommen und mit mehreren Verfahren analysiert – mit überraschendem Ergebnis. Zunächst fiel auf, dass das Innere nicht die typisch rote Färbung besitzt, sondern grau ist. Dabei handelt es sich wahrscheinlich um Magnetit, ein Mineral, das auf ehemals lebensfreundliche Bedingungen hindeutet. Die ebenfalls nachgewiesenen Sulfat- und Tonminerale sprechen ebenfalls für eine ehemalige Umgebung, die weder extrem sauer, noch extrem salzig war. Außerdem entstanden die Minerale unter Einwirkung von Wasser, dem nach unserem Verständnis notwenigen Ingredienz für die Bildung und Existenz von Leben. Aufsehen erregte zudem die Entdeckung einer Ansammlung von Steinen, die Kieseln in einem ehema- ligen Flussbett ähneln (Abbildung 1). Viele Forscher sehen das als deutliches Indiz für das Einwirken von fließendem Wasser. Grundsätzlich kann auch Wind Steine erodieren und schleifen, aber einige von den gefundenen scheinen hierfür zu groß zu sein. Rebecca Williams vom Planetary Science Institute in Tucson, Arizona, schätzt, dass der Fluss damals knöchel- oder hüfttief war und mindestens mit Fußgängergeschwindigkeit geflossen sein muss. In der zweiten Phase der primär auf zwei Jahre angelegten Mission wird sich Curiosity auf die acht Kilometer weite Fahrt zu dem 5500 Meter hohen Mount Sharp machen. Wie lange die Reise dauern wird, ist noch nicht klar. Der bisherige Geschwindigkeitsrekord liegt bei 100 m pro Tag. Ausgestattet mit neuer Software soll Curtiosity zukünftig eigenständiger über seine Fahrtroute entscheiden und schneller als bisher vorankommen. TB © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim | Die Beschleunigung von Elektronen auf 2 GeV mit Hilfe eines Lasers ist Physikern von der Universität in Austin, Texas, gelungen. Die Energiebreite des Strahls betrug nur einige Prozent. Eine Steigerung bis auf 10 GeV könnte möglich sein. Das eröffnet die Möglichkeit für den Bau von Freie-Elektronen-Lasern im Röntgenbereich (X. Wang et al., Nat. Comm. 11.6.2013: DOI: 10.1038/ncomms2988). +++ Die Feinstrukturkonstante ist auch in einem 20000-mal stärkeren Gravitationspotential als dem der Erde bis auf 4 · 10–5 unverändert. Das hat ein internationales Astronomenteam aus der Spektraluntersuchung eines Weißen Zwergs geschlossen. Die Genauigkeit ist hierbei durch einen alten Laborwert eines Übergangs in Fe-V-Ionen begrenzt. Einige Alternativen zur Allgemeinen Relativitätstheorie sagen eine Veränderung der Feinstrukturkonstante in starken Gravitationsfeldern voraus (arxiv.org/abs/1305.1337). +++ Die Van-der-Waals-Kraft zwischen zwei Atomen hat ein französisches Physikerteam erstmals gemessen. Die Messung erfolgte an zwei im Abstand von wenigen Mikrometern befindlichen Atomen im Rydberg-Zustand. Auch den von der Theorie vorhergesagten Abfall der Kraft mit der sechsten Potenz des Abstands konnten die Forscher verifizieren (L. Béguin et al., Phys. Rev. Lett. 2013, 110, 263201, DOI: 10.1103/PhysRevLett.110.263201 +++ Quarks sind höchstens so groß wie 10–4 des Protondurchmessers. Das schließen Physiker des CMS-Experiments am LHC aus einer neuen Messung der Kopplungskonstanten der Starken Wechselwirkung (www.kceta.kit.edu). +++ Die Oszillation von Myon- in Elektronneutrinos haben Physiker mit dem T2K-Experiment in Japan mit einer Signifikanz von 7,5 Sigma gemessen. Hierfür wurde im Japan Proton Accelerator Research Complex nördlich von Tokio ein Strahl von Myon-Neutrinos erzeugt und im 300 km entfernten Super-KamiokandeDetektor vermessen (t2k-experiment.org). +++ Eine neue Art der Turbulenz hat ein Team um Forscher des Max-Planck-Instituts für Dynamik und Selbstorganisation in Göttingen und der Universität des Saarlandes entdeckt. Der als elastoinertiale Turbulenz bezeichnete, chaotische Zustand erklärt, warum die Zugabe von Polymeren Ölströmungen in Pipelines beruhigt (D. Samanta et al., Proc. Nat. Acad. Sci. USA (PNAS), online 11. Juni 2013, doi: 10.1073/pnas.1219666110). www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 219 DOI: 10.1002/piuz.201301346 Eichsymmetrien und Higgs-Mechanismus Wie Teilchen zu ihrer Masse kommen R OBERT H ARLANDER Mit der Entdeckung des Higgs-Teilchens hat die Physik beim Verständnis der Natur einen entscheidenden Schritt nach vorne gemacht. Der bereits vor mehr als 40 Jahren vorgeschlagene Higgs-Mechanismus ist im Kern die Folge eines grundlegenden Symmetrieprinzips. iel der Physik ist das Verständnis der Natur. Das bedeutet nicht nur, dass man die Naturgesetze in der Form von Gleichungen sucht. Vielmehr versucht man, die zugrunde liegenden Prinzipien zu ergründen; die entsprechenden mathematischen Formeln sollten sich dann daraus zweifelsfrei ergeben. Symmetrien haben sich zu diesem Ziel als sehr erfolgreich herausgestellt, obwohl unsere Welt auf den ersten Blick gar nicht symmetrisch erscheint. Insofern wird bereits an dieser Stelle klar, dass der Symmetriebegriff in der Physik ein gehöriges Maß an Abstraktionsvermögen erfordert. Bei einigen Symmetrien ist dies einfacher, bei anderen schwieriger. So sind in unserem Universum keine zwei Orte genau gleich, aber trotzdem leuchtet es ein, dass die Naturgesetze an jedem Ort dieselben sein sollten. Anderer- Z Peter Higgs im Jahre 2008 vor einem der Detektoren des LHC am CERN (Foto: CERN). 220 Phys. Unserer Zeit 5/2013 (44) Online-Ausgabe unter: wileyonlinelibrary.com seits fällt es uns schon schwerer zu akzeptieren, dass die Geschwindigkeit eines Lichtblitzes (im Vakuum) von der Geschwindigkeit der Quelle unabhängig ist. Ob ich einem Lichtblitz entgegenlaufe oder vor ihm davonlaufe: Die Geschwindigkeit zwischen mir und dem Lichtblitz bleibt immer gleich. Die Vorhersage des Higgs-Teilchens basiert ebenfalls auf einem Symmetrieprinzip. Um dieses zu verstehen, muss man eine noch höhere Abstraktionshürde überwinden. Das zugrunde liegende Prinzip sind hier die sogenannten Eichsymmetrien. Bis heute wird darüber diskutiert, ob man Eichsymmetrien tatsächlich als physikalisches Prinzip sehen kann, oder ob sie einfach ein Artefakt unserer mathematischen Beschreibung der Physik sind. Mögen Sie sich am Ende dieses Artikels Ihre eigene Meinung dazu bilden. Die Entdeckung der Eichsymmetrie Das Prinzip der Eichsymmetrie entwickelte in den 1920er Jahren der Mathematiker Hermann Weyl beim Studium der Elektrodynamik. Das Verständnis der elektromagnetischen Wechselwirkung ist ein Paradebeispiel für die Zusammenarbeit von Theorie und Experiment. Aufbauend auf den akribisch dokumentierten Experimenten von Faraday entwickelte Maxwell die Elektrodynamik, deren Tragweite jenseits aller Erwartungen war. Seine Gleichungen verfügen gewissermaßen über ein Eigenleben, das erst die wahre Natur der elektromagnetischen Wechselwirkung – und, wie wir sehen werden, aller fundamentalen Kräfte – offenbart. Sie führten zum Verständnis und der Entdeckung von elektromagnetischen Wellen und zur Entwicklung der Relativitätstheorie. Uns interessiert hier vor allem ein anderer Aspekt der Maxwell-Gleichungen: ihre Eichsymmetrie. Der Einfachheit halber betrachten wir zunächst eine hypothetische Welt, die als geladene Teilchen nur Elektronen enthält. Andere elektrisch geladene Teilchen lassen sich aber natürlich auf ganz analoge Art und Weise mit einbeziehen. Ein zentrales Element bei der theoretischen Beschreibung der Physik ist die Lagrange-Funktion L. Bereits Ende des 18. Jahrhunderts entwickelte Joseph Louis Lagrange den Formalismus für die klassische Mechanik. Er hat sich aber bis in die moderne Quantenfeldtheorie hinein bewährt. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim HIGGS -MECHANISMUS Betrachten wir als mechanisches Beispiel das System Erde-Mond. In diesem Fall ist die Lagrange-Funktion einfach die Differenz aus der gesamten kinetischen Energie T des Systems und der potentiellen Energie V, die sich aus der gravitativen Wechselwirkung der beiden Körper ergibt: L = T – V. Weil T einfach die Summe der kinetischen Energien von Erde und Mond ist, können wir die LagrangeFunktion auch als Summe dreier Terme schreiben: LErde-Mond(xE, xM) = LErde(xE) + LMond(xM) + LWW(xE, xM), wobei LErde(xE) + LMond(xM) = T und LWW(xE, xM) = –V. Wir werden sehen, dass sich diese Form der LagrangeFunktion direkt auf die Elektrodynamik überträgt. Aus LErde-Mond(xE, xM) ergeben sich dann die Newtonschen Bewegungsgleichungen dieses Systems, beispielsweise also auch die Keplerschen Gesetze. Man könnte sich nun geradezu vorstellen, dass die gesamte Physik in einer einzigen Lagrange-Funktion zusammengefasst werden kann, aus der sich dann die Naturgesetze, wie wir sie kennen, auf wohldefinierte Weise ableiten lassen. Den Teil der Lagrange-Funktion, der die Elektrodynamik beschreibt, bezeichnen wir mit LQED(A,ψ). Wir verwenden hier das Akronym QED für Quantenelektrodynamik, also für die in der Teilchenphysik relevante quantisierte Version der elektromagnetischen Wechselwirkung. Der Unterschied zur klassischen Elektrodynamik besteht darin, dass Quantenanregungen elektromagnetischer Felder, also Photonen, mit einbezogen sind. In LQED(A,ψ) ist A(x) das elektromagnetische Potential, das die elektrische und magnetische Feldstärke beinhaltet. ψ (x) ist die Wellenfunktion des Elektrons. Beide Größen hängen von den Raum-Zeit-Koordinaten ab, die hier der Einfachheit halber nur mit x bezeichnet sind. Die Lagrange-Funktion der Elektrodynamik lässt sich, ganz analog zu dem obigen mechanischen Beispiel, in drei Terme aufspalten: LQED(A,ψ) = LA(A) + Lψ (ψ) + LWW(A,ψ). LA(A) beschreibt elektromagnetische Felder in dem Fall, dass keine Ladungen (in unserem Fall also keine Elektronen) vorhanden sind, also zum Beispiel elektromagnetische Wellen im Vakuum. Analog beschreibt Lψ (ψ) Elektronen bei Abwesenheit von elektrischen Feldern. Das ist ein hypothetischer Fall, weil ein Elektron durch seine Ladung selbst ein elektromagnetisches Feld erzeugt. Lψ (ψ) beschreibt also genau genommen ein Elektron ohne elektrische Ladung. Der Term LWW(A,ψ) enthält dann genau jene Effekte, die durch die Wechselwirkung von elektromagnetischen Feldern mit Elektronen entstehen. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim TEILCHENPHYSIK Betrachten wir zunächst LA(A). Seine genaue Form ist an dieser Stelle nicht von Bedeutung. Wichtig ist, dass sich LA(A) nicht ändert, wenn man das Potential A(x) durch A( x ) → A' ( x ) = A( x ) + df ( x ) dx (TA) ersetzt, wobei f(x) eine beliebige Funktion der Raum-ZeitKoordinaten ist und df/dx ihre Ableitung. Mathematisch gesehen ist das nicht spektakulär; dennoch hat diese Gleichung weitreichende Konsequenzen. Den Übergang von A(x) zu A'(x) nennt man Eichtransformation; der Teil LA(A) der Lagrange-Funktion ist also symmetrisch, das heißt, er ändert sich nicht unter Eichtransformationen. Als nächstes widmen wir uns dem Teil Lψ (ψ), der freien Lagrange-Funktion des Elektrons. Die Wellenfunktion ψ(x) ist eine komplexwertige Funktion, sie ordnet also jedem Raum-Zeit-Punkt zwei reelle Zahlen zu (hier vernachlässigen wir den Spin des Elektrons): Man nennt diese den Betrag r(x) und die Phase α (x). Es zeigt sich nun, dass auch Lψ (ψ) eine Symmetrie besitzt; man kann nämlich zur Phase α (x) der Wellenfunktion eine beliebige, von x unabhängige Konstante ω dazu addieren, ohne dass sich Lψ (ψ) ändert. Weil man diese Zahl ω überall gleich wählen muss, nennt man die Transformation α (x) → α '(x) = α (x) + ω (TEG) global. Im Gegensatz dazu ist die Transformation (TA) von A(x), wo an jedem Raum-Zeit-Punkt eine andere Zahl df/dx addiert werden darf, lokal. Wenden wir uns nun dem letzten Term in der Lagrange-Funktion zu, dem Wechselwirkungsterm LWW(A,ψ). Er enthält sowohl das elektromagnetische Potential A(x) als auch die Elektron-Wellenfunktion ψ (x). Es zeigt sich, dass dieser Term nicht symmetrisch ist unter der Eichtransformation von A(x). Allerdings kommt es jetzt zu folgendem faszinierenden Sachverhalt: Die Summe Lψ (ψ) + LWW(A,ψ) (und damit die gesamte Lagrange-Funktion) ist symmetrisch unter der Eichtransformation von A(x), vorausgesetzt, man transformiert gleichzeitig die Phase der Elektron-Wellenfunktion gemäß α (x) → α '(x) = α (x) + f(x), (TEL) wobei hier und in Gleichung (TA) dasselbe f(x) steht. Man kann diese Beobachtung nun auch umdrehen: Die Lagrange-Funktion des Elektrons ohne elektromagnetisches Feld hat nur eine globale Symmetrie (TEG); mit elekwww.phiuz.de 5/2013 (44) Phys. Unserer Zeit 221 ABB. 1 M EC H A N I S C H E A N A LO G I E V VS V V VS V V Eichprinzip und fundamentale Wechselwirkungen VS Mechanische Analogie der Eichinvarianz. Mitte: globale Transformation, unten: lokale Transformation. tromagnetischem Feld erhält sie eine lokale Symmetrie (TEL). Allerdings muss das elektromagnetische Potential auf bestimmte Weise mittransformiert werden (TA). Daraus ergibt sich das sogenannte Eichprinzip: Die Forderung nach einer lokal eichsymmetrischen Lagrange-Funktion für das Elektron führt zwingend zur Wechselwirkung mit dem elektromagnetischen Feld: Nur die Summe Lψ (ψ) + LWW(A,ψ) ist lokal eichsymmetrisch, Lψ (ψ) alleine nicht. Das Eichprinzip lässt sich an einem mechanischen Beispiel erläutern. Betrachten wir eine schiefe Ebene, auf der ein Auto antriebslos herunterrollt. Wenn die Sonne genau senkrecht über dieser Anordnung steht, wirft das Auto einen Schatten auf den Boden, der sich auf bestimmte Art und Weise von einem Punkt am Boden zu einem anderen bewegt (Abbildung 1 oben). Die Bewegung dieses Schattens ändert sich nicht, wenn wir die schiefe Ebene als Ganzes nach oben oder unten bewegen. Nehmen wir an, dass wir nur den Schatten des Autos sehen können, nicht aber die schiefe Ebene oder das Auto selbst. Dann können wir nicht 222 Phys. Unserer Zeit 5/2013 (44) entscheiden, auf welcher Höhe sich die schiefe Ebene befindet; nur deren Neigung ist relevant (Abbildung 1 Mitte). Die Bewegung des Schattens ist symmetrisch unter der globalen Transformation, bei der die Höhe der Ebene überall im Raum um den gleichen Betrag verschoben wird. Dem Eichprinzip würde nun entsprechen, dass wir die Höhe der schiefen Ebene an jedem Ort unterschiedlich wählen können; wir möchten die Form der Bahn also völlig willkürlich verbiegen können, ohne dass sich die Bewegung des Schattens ändert (Abbildung 1 unten). Dies erreicht man nur, indem man das Auto an manchen Stellen beschleunigt oder abbremst. Es muss also eine Kraft eingeführt werden, die dafür sorgt, dass die Bewegung des Schattens keine Rückschlüsse auf die Form der Bahn mehr erlaubt. Die Höhe der Bahn entspricht hier also der Phase der Elektron-Wellenfunktion. Die Forderung nach Eichsymmetrie erzwingt demnach die Existenz einer Kraft: Im mechanischen Beispiel bekommt das Auto einen Motor, im Falle des Elektrons benötigt man die elektromagnetische Wechselwirkung. Dieses mechanische Beispiel verdeutlicht auch eine Frage philosophischer Natur, die sich zum Eichprinzip stellt. Es erinnert an Platons Höhlengleichnis. Ist es tatsächlich so, dass die Naturgesetze auf einer Realität beruhen, die tiefergehender ist als die von uns in Experimenten messbare? Oder ist einfach unsere mathematische Beschreibung ineffizient oder redundant? Bis heute wird die Frage nach dem Realitätsgehalt von Eichtheorien sowohl in der Philosophie als auch in der Physik kontrovers diskutiert. www.phiuz.de Erstaunlicherweise lassen sich alle bekannten fundamentalen Wechselwirkungen aus dem Eichprinzip herleiten. Betrachten wir beispielsweise die starke Wechselwirkung, die unter anderem dafür sorgt, dass Quarks im Proton gebunden sind. Der entscheidende Unterschied zur elektromagnetischen Wechselwirkung ist, dass die Wellenfunktion der Quarks komplizierter ist: statt nur einer komplexen Zahl ordnet sie jedem Raum-Zeit-Punkt drei komplexe Zahlen zu: ψQuark(x) = (ψ1(x), ψ2(x), ψ3(x)). Die Symmetrie betrifft jetzt nicht mehr nur die Phasen der einzelnen Komponenten von ψQuark, sondern erweitert sich auf Vertauschungen dieser Komponenten. Diese Verallgemeinerung führt dann statt auf ein Potential gleich auf acht Potentiale Aα(x), α = 1,…, 8, Gluonfelder genannt. An Teilchenbeschleunigern spielen weniger die klassischen Felder eine Rolle als vielmehr deren Quanten, also die zugehörigen Teilchen. Das Quant der elektromagnetischen Wechselwirkung ist bekanntlich das Photon; die acht Quanten der starken Wechselwirkung heißen Gluonen. Sie wurden 1979 am DESY in Hamburg entdeckt. Die dritte fundamentale Wechselwirkung, verantwortlich beispielsweise für radioaktive Zerfälle, nennt man schwache Wechselwirkung. Sie folgt ebenfalls aus einem Eichprinzip, das in diesem Fall auf drei Quanten führt: W+, W– und Z. Diese Teilchen wurden 1983 am CERN entdeckt, © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim HIGGS -MECHANISMUS TEILCHENPHYSIK wodurch das Standardmodell der Elementarteilchenphysik (siehe „Das Standardmodell der Elementarteilchenphysik“, S. 223) seine entscheidende experimentelle Bestätigung erfuhr. Für diese Entdeckung wurden Carlo Rubbia und Simon van der Meer 1984 mit dem Nobelpreis ausgezeichnet. Eichsymmetrie und mathematische Konsistenz Man kann zeigen, dass die Eichsymmetrie einer Theorie eng mit Ladungserhaltung verknüpft ist. Sie ist damit bereits physikalisch sehr gut motiviert. Erstaunlicherweise gibt es aber auch eine rein mathematische Motivation. Um diese zu verstehen, müssen wir zunächst noch einmal ein wenig ausholen. Ein zentrales Element der Quantenmechanik ist die Unschärferelation: Ort und Impuls eines Teilchens können nicht gleichzeitig mit beliebiger Genauigkeit bestimmt werden. Ebenso wenig kann man in endlicher Zeit die Energie eines Systems beliebig genau messen. Dies hat zur Folge, dass im Vakuum die Energie nicht immer und überall identisch gleich null sein kann. Es gibt Vakuum-Fluktuationen der Energie, die man sich als permanentes Entstehen und Vergehen von Paaren aus Teilchen und Antiteilchen vorstellen kann. Sie machen sich in quantenphysikalischen Messungen durchaus bemerkbar, zum Beispiel im CasimirEffekt (im Vakuum entstehende Kräfte auf nahe beieinander liegende Metallplatten, s. Physik in unserer Zeit 2005, 36(2), 85) und in der Lamb-Verschiebung bei Atomspektren. Bei der Berechnung von Prozessen, wie sie an Teilchenbeschleunigern stattfinden, müssen diese Vakuumfluktuationen mit berücksichtigt werden. Insbesondere werden die Teilchen bei der Bewegung durch dieses Vakuum in ihren Eigenschaften beeinflusst: So kann das Vakuum die Abb. 2 Tom Kibble, Gerald Guralnik, Carl Hagen, François Englert und Robert Brout (v.l.n.r.) bei der Verleihung des Sakurai-Preises für Theoretische Physik 2010 (Foto: CERN). Masse des Teilchens oder auch seine Ladung verändern. Im Experiment messen wir stets den Effekt des Vakuums mit. Die messbare Masse (auch physikalische Masse genannt) setzt sich also zusammen aus der eigentlichen Masse des Teilchens (nackte Masse) und dem Effekt der Vakuumfluktuationen, die wir im Folgenden Strahlungsmasse nennen wollen: mphys = mnackt + mStrahlung. Die Quantenphysik erlaubt im Prinzip die Berechnung der Strahlungsmasse. Allerdings stößt man dabei auf ein enormes Problem: In den meisten Fällen ergibt sich dafür ein unendlich großer Wert! Was läuft hier falsch? DA S S TA N DA R D M O D E L L D E R E L E M E N TA R T E I LC H E N PH YS I K Alle Phänomene, die an Teilchenbeschleunigern bisher beobachtet wurden, lassen sich mit Hilfe einer bestimmten Lagrange-Funktion LSM verstehen, dem Standardmodell. Es enthält alle in der Natur beobachteten Teilchen und deren Eigenschaften: sechs Leptonen (Elektron, Myon, Tauon, die jeweils die einfache negative Elementarladung tragen, sowie die drei elektrisch neutralen Neutrino-Sorten), sechs Quarks (Up, Charm, Top, jeweils mit +2/3 der Elementarladung, und Down, Strange, Bottom mit –1/3), sowie die Quanten der Wechselwirkungen (das Photon für die elektromagnetische, die Gluonen für die starke und die beiden W-sowie das Z-Boson für die schwache Wechselwirkung). | Photon und Gluonen sind masselos; alle anderen Teilchen tragen unterschiedliche Massen. Diese werden laut dem Standardmodell durch die Wechselwirkung der Teilchen mit dem Higgs-Feld verursacht. Das Standardmodell (Abbildung) erfasst nicht die Gravitation. Diese widersetzt sich bislang allen Versuchen, sie im Rahmen der Quantenphysik zu beschreiben – eine Grundvoraussetzung für die Einbindung in das Standardmodell. Gravitationseffekte sind bei Reaktionen von Elementarteilchen aber extrem schwach und haben innerhalb der heutigen Messgenauigkeit keine Bedeutung für Teilchenbeschleuniger-Experimente. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 223 ABB. 3 STÄRKE DES HIGGS-SIGNALS Vergleich der Stärke des Higgs-Signals in unterschiedlichen Zerfallsprozessen mit der theoretischen Erwartung (senkrechte gestrichelte Linie) (Quelle: ATLAS/CERN). Die Antwort liegt, so wie wir es oben formuliert haben, mehr oder weniger auf der Hand: Weder Strahlungsmasse noch nackte Masse sind separat messbar, sondern nur ihre Summe mphys; nur diese muss mit dem experimentellen Wert übereinstimmen. mnackt und mStrahlung können also separat jeden beliebigen Wert annehmen (sogar Unendlich!), solange sie in der Summe die physikalische Masse ergeben. Damit hören die Probleme aber nicht auf: Unendlichkeiten treten nicht nur bei der Berechnung von Massen und Ladungen auf, sondern bei fast jedem Prozess, wie man ihn beispielsweise an Teilchenbeschleunigern beobachten kann. Das Erstaunliche ist, dass sich im Falle der Elektrodynamik alle diese Unendlichkeiten gegenseitig kompensieren. Diese Tatsache erkannten in den 1940er Jahren Richard Feynman, Julian Schwinger und Shinichiro Tomonaga – eine intellektuelle Leistung, die 1965 mit dem Nobelpreis geehrt wurde. Eine physikalische Theorie, bei der sich, wie in der Elektrodynamik, die Unendlichkeiten gegenseitig kompensieren, nennt man renormierbar. Was von den Quantenfluktuationen bleibt, sind endliche, messbare Effekte. Sie werden in diesem Artikel später noch eine Rolle spielen. Es zeigt sich nun, dass eine zentrale Voraussetzung für den Beweis der Renormierbarkeit der Elektrodynamik die Eichsymmetrie ist. Sie hat also nicht nur die obige physikalische Bedeutung der Ladungserhaltung, sondern ist auch essentiell mitverantwortlich dafür, dass eine Quantentheorie überhaupt sinnvolle Aussagen machen kann. Teilchenmassen und Higgs-Mechanismus Die Forderung nach Eichsymmetrie bedeutet strikte Einschränkungen an eine Quantentheorie. Hätte das Photon beispielsweise eine von Null verschiedene Masse m, dann 224 Phys. Unserer Zeit 5/2013 (44) www.phiuz.de müsste die Lagrange-Funktion LA(A) einen Term der Form m2A2 enthalten. Ganz offensichtlich ist dieser aber nicht symmetrisch unter der Ersetzung (TA). Das Photon muss wegen der Eichsymmetrie also masselos sein. Dasselbe gilt im Prinzip auch für die Gluonen und die W- und Z-Bosonen, also die Quanten der starken und schwachen Wechselwirkung. Erstere sind in der Tat masselos. Aus Experimenten wissen wir aber, dass die W- und Z-Bosonen eine Masse besitzen. Die Lagrange-Funktion der schwachen Wechselwirkung scheint also nicht eichsymmetrisch zu sein! Was bedeutet das nun für die Renormierbarkeit und damit die Konsistenz der Theorie? Hier kommt der Higgs-Mechanismus zu Hilfe. Die Idee dahinter ist, dass es ein zusätzliches (Quanten-)Feld gibt, das eine gegenüber den anderen bekannten Feldern sehr seltsame Eigenschaft hat. Beispielsweise ist ein elektromagnetisches Feld immer mit Energie verbunden: Der Zustand niedrigster Energie wird jedes Mal dann erreicht, wenn das Feld verschwindet – bis auf die erwähnten Vakuumfluktuationen. Anders beim Higgs-Feld: Hier wird die Energie minimal bei einem gewissen nicht-verschwindenden Wert ν des Higgs-Feldes, dem sogenannten Vakuumerwartungswert (VEV). Man kann sich die Situation so vorstellen, dass sich alle Teilchen durch das Vakuum bewegen, das wie mit einer Art Medium, eben dem VEV des Higgs-Feldes, erfüllt ist. Diese Sichtweise wird oft als „Rückkehr des Äthers“ kritisiert. Allerdings sind das Higgs-Feld und sein VEV, im Gegensatz zum Äther, vollkommen verträglich mit allen bekannten physikalischen Prinzipien. Die Einführung des Higgs-Feldes ist in gewisser Weise ein mathematischer Trick: Der Masseterm des Z-Bosons in der Lagrange-Funktion MZ2Z2(x), der die Eichsymmetrie verletzen würde, entsteht dabei aus einem (eichsymmetrischen) Wechselwirkungsterm mit dem Higgs-Feld φ (x): λφ 2(x)Z 2(x) = λν 2Z 2(x) + … . (MZ) Wie fast alle Gleichungen in diesem Artikel ist (MZ) symbolisch zu verstehen, im Standardmodell sind die Ausdrücke ein wenig komplizierter. In (MZ) sind λ eine Zahl, die die Stärke der Wechselwirkung zwischen Higgs-Feld und Z-Boson bestimmt, und ν der VEV des Higgs-Feldes. Diese Gleichung erhält man, indem man das Higgs-Feld durch seinen VEV ersetzt. Die Punkte auf der rechten Seite deuten an, dass dies nicht alles ist: Das Higgs-Feld kann auch höhere Energie besitzen, das heißt, es kann angeregt sein – darauf kommen wir später noch zurück. Der Term auf der rechten Seite hat genau die Form eines Massenterms für das ZBoson. Vergleich mit MZ2Z2(x) ergibt MZ2 = λν 2: Die Masse ist proportional zur Stärke der Kopplung an das Higgs-Feld. Das gilt ganz allgemein: Je stärker die Wechselwirkung eines Teilchens mit dem Higgs-Feld ist, desto schwerer ist es. Der Term auf der linken Seite in (MZ) – und damit das Verhalten des Higgs-Feldes unter Eichtransformationen – ist so gewählt, dass die Lagrange-Funktion des Standardmodells © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim HIGGS -MECHANISMUS aufbauend auf der speziellen, von Sheldon Glashow vorgeschlagenen Eichsymmetrie, das Standardmodell ins Leben gerufen. Glashow, Salam und Weinberg erhielten dafür 1979 den Nobelpreis. Die ernsthafte Suche nach dem Higgs-Teilchen begann am LEP-Beschleuniger (1989 bis 2000), dem Vorgängerexperiment des LHC am CERN. Sie wurde dann in den USA am Tevatron des Fermilab (1983 bis 2011) weitergeführt, allerdings stets mit negativem Resultat. Immerhin konnte der mögliche Massenbereich für das Higgs-Teilchen eingeschränkt werden. Außerdem war die Vermessung des Standardmodells bei LEP so präzise, dass im Vergleich mit dem Standardmodell die oben angesprochenen, endlichen Ef- DIE ROLLE DER THEORIE BEI DER ENTDECKUNG DES HIGGS-BOSONS am LHC vermutlich fehlinterpretieren und vorschnell auf einen Widerspruch zum Standardmodell schließen. Die Rolle der Theorie hat also mit der Erfindung des Higgs-Mechanismus nicht aufgehört: Sie ist essenziell für die Interpretation der Messdaten des LHC. Dementsprechend haben sich im Zusammenhang mit der Suche nach dem Higgs-Teilchen und dessen Vermessung rund hundert Theoretiker und Experimentatoren zur LHC Higgs Cross Section Working Group zusammengeschlossen [5], um Rechnungen und Messungen optimal aufeinander abzustimmen. 102 pp → 10 s= 8 TeV H (N NLO +NN LL QC D | +N LO EW LHC HIGGS XS WG 2012 Das Standardmodell entspricht wie beschrieben einer bestimmten LagrangeFunktion. Aus ihr lässt sich im Prinzip jede Größe, die am LHC gemessen wird, berechnen. Jedoch sind diese Berechnungen so kompliziert, dass sie nur in wohldefinierten Näherungen durchgeführt werden können. Im Jahre 2002 konnten wir zeigen [4], dass die Anzahl der Higgs-Teilchen, die am LHC pro Zeiteinheit erzeugt werden, etwa doppelt so groß ist wie auf Grundlage der einfachsten Näherungsrechnung angenommen (etwa ein Higgs-Teilchen pro Minute). Ohne diese Korrektur würde man das Signal Wirkungsquerschnitt /pb eichsymmetrisch bleibt. Sie ist es also auch, wenn man stattdessen die rechte Seite verwendet. Nur wenn man die Punkte auf der rechten Seite von (MZ) weglässt oder nicht vollständig berücksichtigt, also im Vakuum, wird die Eichsymmetrie gebrochen. Man spricht hier von spontaner Symmetriebrechung: Die Lagrange-Dichte hat die Symmetrie, aber der Vakuumzustand nicht. Gerardus ’t Hooft und Martinus Veltman zeigten Anfang der 1970er Jahre, dass in diesem Fall die Renormierbarkeit gesichert bleibt. Im Jahre 1999 wurden sie dafür mit dem Nobelpreis ausgezeichnet. Interessant wird der Higgs-Mechanismus dadurch, dass dieser zunächst rein mathematische Trick eine unvermeidliche physikalische Konsequenz hat. Dies führt uns auf die bereits erwähnten Anregungen des Higgs-Feldes zurück. Sie entsprechen physikalisch beobachtbaren Teilchen, eben den Higgs-Teilchen. Es muss also ein Higgs-Teilchen geben, das mit der Stärke λ mit den massiven Teilchen wechselwirkt. Die Tatsache, dass das Higgs-Feld einen VEV hat, verbietet, dass dieses Teilchen einen Eigendrehimpuls (Spin) oder eine elektrische Ladung trägt. Andernfalls wäre das Vakuum elektrisch geladen, oder es wäre eine Richtung im Raum ausgezeichnet (eben durch den Spin). Diese Eigenschaften übertragen sich auch auf das Higgs-Teilchen. In der Tat ist die einzige, nicht durch die Theorie festgelegte Eigenschaft des Higgs-Teilchens seine Masse. Wir können den Higgs-Mechanismus auch wieder in unserer mechanischen Analogie des Autos auf der schiefen Ebene veranschaulichen. Dazu nehmen wir an, dass die schiefe Ebene mit einer Schneeschicht bedeckt sei – sie entspricht dem Higgs-Feld. Nun lassen wir nicht Autos die Ebene hinabfahren, sondern Skifahrer. Je schlechter das verwendete Skiwachs, desto mehr Energie benötigt man, sie auf eine bestimmte Geschwindigkeit zu bringen. Leichte Teilchen entsprechen also Skifahrern mit gutem Wachs, schwere solche mit schlechtem. Die Qualität des Skiwachs entspricht also der Kopplungskonstanten λ aus Gleichung (MZ): schlechtes Skiwachs entspricht starker Kopplung. Sogar das Higgs-Teilchen lässt sich in dieser Analogie verstehen. Es ist ja die (Quanten-)Anregung des Higgs-Feldes. In unserem Bild kann man sich das als Schneelawine vorstellen: eine „Selbstanregung“ des Schneefeldes. Ihre „Masse“ – also die Geschwindigkeit, mit der sie den Berg hinunterrutscht – hängt davon ab, wie klebrig oder pulverig der Schnee ist, das heißt, welche „Selbstkopplung“ das Higgs-Feld hat. TEILCHENPHYSIK ) 1 10-1 pp → qqH (NNL OQ CD + pp pp NLO → → EW) W ZH H ( NN (N NL LO O QC QC pp D → D + ttH +N (N LO N LO LO EW EW QC ) ) D) 10-2 Die Entdeckung des Higgs-Teilchens Der Higgs-Mechanismus wurde Mitte der 1960er Jahre von Peter Higgs [1] und unabhängig von zwei weiteren Gruppen entwickelt: Robert Brout und François Englert [2] sowie Gerald Guralnik, Carl Hagen und Tom Kibble (Abbildung 2) [3]. Korrekterweise sollte man also vom Brout-Englert-Higgs-Guralnik-Hagen-Kibble-Mechanismus sprechen. Steven Weinberg und unabhängig davon Abdus Salam haben ihn 1967 auf die W- und Z-Bosonen angewandt und damit, © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim 80 100 200 300 400 1000 M H /GeV·c –2 Theoretisch berechnete Wirkungsquerschnitte für Higgs-Teilchen am LHC [5]. Sie sind ein Maß für die Häufigkeit, mit der sie in unterschiedlichen Prozessen erzeugt werden. Für die enorm aufwendigen Berechnungen wurden zum Teil völlig neuartige mathematische Methoden entwickelt. Die Übereinstimmung mit den experimentell gemessenen Häufigkeiten ist eine essenzielle Voraussetzung dafür, dass es sich bei dem beobachteten Signal tatsächlich um das Higgs-Teilchen des Standardmodells handelt. www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 225 Massenwerte aus der Theorie selbst heraus ergeben würfekte der Vakuumfluktuationen in die Berechnungen mit den. einbezogen werden mussten. Dadurch erhielten die LEPEin wichtiger Kritikpunkt am Standardmodell ist auch, Daten eine indirekte Empfindlichkeit für das Higgs-Teilchen. dass der Higgs-Mechanismus in vielen Aspekten als eine AdIn der Tat stimmt der daraus gefolgerte Wert der Higgs-Mashoc-Lösung erscheint, um Teilchenmassen mit der Eichse sehr gut mit der jetzt direkt gemessenen Masse überein. symmetrie kompatibel zu machen. Ab 2010 begann der LHC mit der Higgs-Suche, am 4. JuEin weiteres, quantitatives Argument gegen den Higgsli 2012 war es dann so weit: Die beiden größten ExperiMechanismus, wie er im Standardmodell auftritt, ist das Feinmente am LHC verkündeten, dass sie ein nahezu unanjustierungs-Problem. Um dieses zu verstehen, erinnern wir zweifelbares Signal in ihren Datensätzen sehen, das mit dem uns wieder an die Vakuumfluktuationen. Wir hatten beHiggs-Teilchen kompatibel ist. In den Worten von CERNschrieben, wie sie unendliche Beiträge zu den TeilchenGeneraldirektor Rolf Heuer vom 4. Juli 2012: „I think we massen liefern, in der Summe mit den ebenfalls unendlich have it.“ Ist es aber wirklich das Higgs-Teilchen? großen nackten Massen aber die messbare physikalische Das Standardmodell geht von einer „minimalen Version“ Masse ergeben. Bei der Formulierung des Feinjustierungsdes Higgs-Mechanismus aus, bei der es nur ein Higgs-TeilProblems geht man davon aus, dass weder die nackte Maschen gibt. Es wäre durchaus möglich, dass verschiedene se noch die Strahlungsmasse wirklich unendlich groß sind. Higgs-Teilchen existieren, die sich in ihren Eigenschaften Stattdessen hängen sie vom minimalen Abstand ab, bis zu von dem des Standardmodells unterscheiden würden. Oder dem Wechselwirkungen durch das Standardmodell behat der LHC vielleicht sogar ein völlig anderes Teilchen entschrieben werden. Dass es einen solchen minimalen Abdeckt? stand gibt, ist klar, wenn man bedenkt, dass das StandardAus der Lagrange-Funktion des Standardmodells kann modell die Gravitation nicht beinhaltet. Letztere ist für Eleman berechnen, mit welcher Wahrscheinlichkeit ein Higgsmentarteilchen so schwach, dass sie erst auf der Skala der Teilchen am LHC erzeugt wird und in welche Teilchen es Planck-Länge eine Rolle spielen sollte, also bei Abständen, mit welcher Häufigkeit wieder zerfällt. Ein Vergleich mit die 1019-mal kleiner sind als der Protondurchmesser. Der dem Experiment zeigt sehr gute Übereinstimmung (Abbildung 3). Auch kompliziertere MessLHC überprüft das Standardmodell bei DAS STANDARDMODELL IST größen (Häufigkeiten von ZerfallsproAbständen, die höchstens 104-mal kleidukten in bestimmten Detektorbereiner als der Protondurchmesser sind. WOHL NUR DER GRENZFALL chen usw.) können berechnet werden. Gehen wir also davon aus, dass es EINER WEITREICHENDEREN So zeichnet sich immer mehr ab, dass einen Minimalabstand gibt, bis zu dem THEORIE es sich tatsächlich um das gesuchte das Standardmodell gilt. Er könnte Higgs-Teilchen handelt (siehe „Die Rol105-, 106- oder eben 1019-mal kleiner le der Theorie bei der Entdeckung des als der Protondurchmesser sein. Die Higgs-Bosons“, S. 225). Strahlungsmasse hängt dann von diesem Abstand ab, und zwar so, dass sie gegen Unendlich geht, wenn der Abstand gegen Null geht. Jenseits des Standardmodells Für Elektronen, Quarks und überhaupt alle Teilchen des Das Standardmodell beschreibt alle Phänomene, die bislang Standardmodells außer dem Higgs-Teilchen ist diese Aban Teilchenbeschleunigern beobachtet wurden, mit zum hängigkeit sehr schwach (logarithmisch). Wenn das StanTeil außerordentlicher Präzision. Allerdings gibt es einige dardmodell also tatsächlich bis zur Planck-Länge gilt, dann kosmologische und astrophysikalische Beobachtungen wie setzt sich beispielsweise die physikalische Elektronmasse etwa Dunkle Materie oder Dunkle Energie, die sich innerme = 511 keV/c2 zusammen aus einer nackten Masse von halb des Standardmodells nicht erklären lassen. Andererseits wird auch auf rein theoretischer Ebene ar482 keV/c2 und einer Strahlungsmasse von 29 keV/c2 – die gumentiert, dass das Standardmodell vermutlich nur der Zahlen in diesem Abschnitt dienen nur zur VeranschauliGrenzfall einer weitreichenderen Theorie sei, den wir bei chung und tragen eine relativ große theoretische Unsiden uns bislang zur Verfügung stehenden Energien noch cherheit. nicht überprüfen können. Es ist allerdings doch verwunWenn das Standardmodell nur bis zu Abständen von etderlich, dass dieser Grenzfall bereits eine mathematisch vollwa 10–6 des Protondurchmessers gilt, dann sind die Beträkommen konsistente Theorie liefert. ge der nackten Masse 499 keV/c2 und der Strahlungsmasse Ein Argument, das oft angeführt wird, um eine überge12 keV/c2. Die Strahlungsmasse ändert sich also nur ungeordnete Theorie zu motivieren, ist die relativ große Anzahl fähr um einen Faktor 3, wenn der Minimalabstand sich um freier Parameter des Standardmodells. Auch wenn alle Maseinen Faktor 1013 verkleinert! sen durch den Higgs-Mechanismus erzeugt werden, muss Beim Higgs-Teilchen ist die Abhängigkeit der Strahdie Größe dieser Massen (oder äquivalent die Kopplung des lungsmasse vom minimalen Abstand nicht logarithmisch, jeweiligen Teilchens an das Higgs-Teilchen) „per Hand“ einsondern quadratisch. Bei einer physikalischen Higgs-Masse geführt oder besser gesagt experimentell bestimmt werden. von 125,6 GeV/c2, wie sie von den LHC-Experimenten geFür die Physiker wäre es überzeugender, wenn sich diese messen wurde, lautet die Bilanz von physikalischer, nackter 226 Phys. Unserer Zeit 5/2013 (44) www.phiuz.de © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim HIGGS -MECHANISMUS und Strahlungsmasse bei einem Minimalabstand von der Planck-Länge etwa 125,6 = 52847625527388363,8 – 52847625527388238,2. Nackte Masse und Strahlungsmasse, zwei völlig unabhängige Größen, sind beide riesig und fast (entgegengesetzt) gleich groß. Ihre Differenz ergibt genau die im Experiment gemessene Higgs-Masse. Kann diese fast perfekte Gleichheit Zufall sein? Oder steckt ein physikalisches Konzept dahinter, das wir noch nicht entdeckt haben? Wenn der Minimalabstand für das Standardmodell dagegen nur etwa ein Millionstel des Protondurchmessers ist, dann sieht die Gleichung nicht ganz so merkwürdig aus: TEILCHENPHYSIK Zusammenfassung Mitte 2012 wurde vermutlich der letzte Baustein des Standardmodells der Teilchenphysik experimentell gefunden: das Higgs-Teilchen. Seine Existenz war vor mehr als 40 Jahren aufgrund abstrakter Symmetrieprinzipien theoretisch gefordert worden. Dieses Eichprinzip lässt sich einigermaßen präzise erläutern, ohne den vollständigen Formalismus heranziehen zu müssen. Zudem lässt dieser sich mit einer mechanischen Analogie veranschaulichen. Der Higgs-Mechanismus wurde eingeführt, um die explizite Brechung der Eichsymmetrie durch Teilchenmassen zu umgehen. Damit ist das Standardmodell wieder einmal glänzend bestätigt, aber es bleiben theoretische Kritikpunkte. Stichworte 125,6 = 5062,7 – 4937,1. Von vielen Teilchenphysikern wird diese Beobachtung als Hinweis darauf gesehen, dass das Standardmodell schon bei relativ großen Abständen – also knapp unterhalb dessen, was bisher überprüft wurde – nicht mehr gilt. Die Umrüstung des LHC auf seine volle Strahlenergie kann uns die Antwort darauf geben. 2015 geht es weiter Die Entdeckung eines Higgs-Teilchens am LHC ist ohne Zweifel ein Meilenstein der Teilchenphysik. Sie ist ein enormer experimenteller Erfolg, der auf technologischen Durchbrüchen, brillanten Ideen und unzähligen Tag-, Nacht- und Wochenendschichten beruht. Sie ist auch ein großer Triumph für die theoretische Physik, die mit dem Eichprinzip ein fundamentales Konzept unserer Natur gefunden zu haben scheint. Nicht zuletzt ist sie aber auch Ergebnis einer beispiellosen Kooperation von Theorie und Experiment, die über Länder-, Kultur-, Religions- und viele andere Grenzen hinweg auf ein gemeinsames Ziel hin arbeitet. Das Standardmodell wäre mit dieser Entdeckung komplett. Dennoch gibt es viele offene Fragen: Wie funktioniert Gravitation auf dem Quantenniveau? Kann man die Parameter des Standardmodells erklären? Was steckt hinter dem Konzept der Eichsymmetrie? Wir hoffen, dass uns der LHC ab 2015 mit fast verdoppelter Schwerpunktsenergie den Antworten ein Stück näher bringt. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Higgs-Mechanismus, Lagrange-Formalismus, Lagrange-Funktion, Higgs-Teilchen, Eichsymmetrien, Renormierbarkeit, Vakuumerwartungswert. Standardmodell der Teilchenphysik. Literatur [1] Peter W. Higgs, Phys. Rev. Lett 1964, 13(16), 508. [2] F. Englert, R. Brout, Phys. Rev. Lett. 1964, 13(9), 321. [3] G. S. Guralnik, C. R. Hagen, T. W. B. Kibble, Phys. Rev. Lett. 1964, 13(20), 585. [4] R. V. Harlander, W. B. Kilgore, Phys. Rev. Lett. 2002, 88, 201801. [5] twiki.cern.ch/twiki/bin/view/LHCPhysics/CrossSections. Der Autor Robert Harlander promovierte1998 an der Universität Karlsruhe. Nach Forschungsaufenthalten am Brookhaven National Laboratory, USA, und dem CERN in Genf leitete er eine Emmy-Noether-Nachwuchsgruppe in Karlsruhe. Seit 2005 ist er Professor an der Bergischen Universität Wuppertal. Anschrift Prof. Dr. Robert Harlander, Fachbereich C, Bergische Universität Wuppertal, 42097 Wuppertal, [email protected]. www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 227 DOI: 10.1002/piuz.201301334 Gedruckte organische Elektronik Smart und flexibel H ENNING R OST |J ÜRGEN K RUMM |K ATRIN R IETHUS |K LAUS L UDWIG Gedruckte Elektronik wird mit „elektronischen Tinten“ hergestellt. Diese Tinten werden durch Rolle-zu-Rolle-Druckverfahren sehr präzise auf großflächige, flexible Substrate aufgebracht. Die günstige Elektronik eröffnet neue Anwendungsfelder, die konventioneller Siliziumelektronik bisher nicht oder nur eingeschränkt zugänglich waren. nter gedruckter Elektronik versteht man elektronische Bauelemente, die teilweise oder sogar vollständig mit Druckverfahren hergestellt werden. Anstelle von konventionellen Druckfarben verwendet man dazu sogenannte elektronische Funktionsmaterialien. Oft sind es spezielle Kunststoffe mit elektrisch leitenden, halbleitenden und isolierenden Eigenschaften. Sie werden in herkömmlichen organischen Lösungsmitteln gelöst und als eine Art elektronische Tinte verdruckt. Die Herausforderung bei elektronischen Bauteilen liegt darin, dass man beim Drucken nacheinander mit großer Präzision verschiedene Schichten mit feinen Strukturen aufeinander legen muss. Tatsächlich kann man damit heute schon funktionierende elektronische Komponenten wie Transistoren, Dioden und Kondensatoren erzeugen (Abbildung 1). Die Nutzung von modernen Druckverfahren führt zu einer erheblichen Senkung der Herstellungskosten. U Mit solchen Verfahren kann unsere Fürther Firma PolyIC, ein Tochterunternehmen der Leonhard Kurz Stiftung, bereits dünne, flexible und preiswerte Elektronikbauteile herstellen. Einige ausgewählte Produkte wollen wir in diesem Artikel vorstellen. Funketiketten, Displays und sogenannte Smart Objects sollen als Beispiele illustrieren, was gedruckte organische Elektronik schon zu leisten vermag. Erste Anwendungen kommen in Form von transparenten und leitfähigen Folien bereits auf den Markt. Leiter und Halbleiter aus Kunststoffen Wie in der klassischen Elektronik werden für den Aufbau von organischen Schaltungen Transistoren benötigt, sogenannte Organische Feldeffekt-Transistoren (OFETs). In der klassischen Elektronik werden als Halbleiter p- und n-dotiertes Silizium eingesetzt. Bei der Fertigung baut man dazu gezielt Fremdatome in den Siliziumkristall ein, um die Leitfähigkeit zu steuern. Ersetzt man im Silizium einige Siliziumatome mit vier Außenelektronen durch Atome von Elementen der III. Hauptgruppe mit drei Außenelektronen, zum Beispiel Gallium oder Indium, schafft man so Elektronenleerstellen. Beim Austausch einiger Siliziumatome mit Elementen der V. Hauptgruppe des Periodensystems mit fünf Außenelektronen, zum Beispiel Arsen oder Antimon, entstehen Stellen mit überschüssigen Elektronen. Bei derart dotierten Siliziumkristallen findet man eine stark erhöhte elektrische Leitfähigkeit gegenüber dem reinen Silizium. In Abhängigkeit von der Art der Dotierung unterscheidet man zwischen p-Leitung mit Elektronenleerstellen, auch Defektelektronen oder Löcher genannt, als Ladungsträger, sowie n-Leitung mit Überschusselektronen. Bei organischen Halbleitern und Leitern, wie etwa bei konjugierten Polymeren [1], kann man unter gewissen Voraussetzungen ebenfalls p- und n-Leitung beobachten. Im Gegensatz zu den anorganischen Halbleitern wie Silizium werden hier Ladungsträger jedoch nicht durch Dotierung, sondern durch chemische Reaktionen mit Elektronenübergang, also Redoxreaktionen, erzeugt. Im „unbehandelten“ Zustand findet man in derartigen organischen Materialien eine Bandlücke im Bereich von 1 bis 3 eV (zum Vergleich: rund 1,1 eV in Si). Sie trennt das mit Elektronen gefüllte Valenzband HOMO (Highest Occupied Molecular Orbital) vom energetisch höher liegenden, leeren Leitungsband Abb. 1 Maschine zur Herstellung von gedruckter Elektronik. 228 Phys. Unserer Zeit 5/2013 (44) Online-Ausgabe unter: wileyonlinelibrary.com © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim GEDRUCK TE ORGANISCHE ELEK TRONIK LUMO (Lowest Unoccupied Molecular Orbital) (Abbildung 2). Durch den Kontakt mit chemischen Oxidationsmitteln, um p-Leiter zu erhalten oder mit Reduktionsmitteln zur Erzeugung von n-Leitern, lässt sich die Eigenleitfähigkeit der Materialien um mehrere Größenordnungen steigern. Bei mit Jod oxidiertem Polyacetylen wurden schon vor Jahrzehnten Leitfähigkeitssteigerungen bis auf Werte von 170 000 S/cm beschrieben, was in der gleichen Größenordnung der Leitfähigkeit von Kupfer liegt [2]. Leider zeigte sich jedoch, dass organische Polymere mit derartig hohen Leitfähigkeiten nicht dauerhaft stabil sind. Zudem muss man für organische n- und p-Leiter im Allgemeinen unterschiedliche Ausgangsmaterialien verwenden, die sich hinsichtlich ihrer chemischen Struktur unterscheiden. Bei „normalen“ organischen Feldeffekt-Transistoren allerdings steht man zum Glück nicht vor dem Problem, verschiedene n- und p-Materialien kombinieren zu müssen. Bei den hier betrachteten OFETs wird grundsätzlich kein permanent leitfähiges Halbleitermaterial benötigt. Die Leitfähigkeit der halbleitenden Schicht wird allein durch das Anlegen von elektrischen Spannungen an die drei Anschlüsse Drain, Source und Gate der Transistoren hergestellt (Abbildung 3). Diese sorgen für ein elektrisches Feld, das Ladungsträger in den Halbleiterkanal zieht, wo sie dann längs der Halbleiterschicht von einem Kontakt zum anderen fließen können. Energetisch betrachtet findet bei OFETs dieser Transport je nach Halbleitertyp im HOMO (bei p-Typ-Transistoren) oder im LUMO (bei n-Typ-Transistoren) statt [3]. ABB. 2 TECHNISCHE PHYSIK Von größter Bedeutung ist hierbei die chemische Struktur der Halbleiterschicht. Sie muss den Transport von Ladungen im angelegten elektrischen Feld erlauben. Die Grundvoraussetzung für halbleitende Eigenschaften sowie elektrische Leitfähigkeit in organischen Kunststoffen ist das Vorhandensein eines konjugierten π-Systems mit einer alternierenden Sequenz von Einfach- und Doppelbindungen (siehe [3, 4] und Beispiele in Abbildung 4). Im Allgemeinen sind lochleitende Materialien aufgrund ihres chemischen Aufbaus elektronenreich, so dass leicht Elektronen aus dem gefüllten Valenzband (HOMO) extrahiert werden können. Eine häufig eingesetzte und bewährte Materialklasse sind die alkylsubstituierten Polythiophene (Abbildung 4). Diese Polyalkylthiophene, besonders Poly(3-hexylthiophen) (PHT), besitzen eine gute Ladungsträger-Mobilität und eignen sich daher zum Beispiel als Halbleitermaterial [5]. Die chemische Substitution der Thiophenringe des Moleküls mit Alkylketten sorgt für eine gute Löslichkeit in organischen Lösungsmitteln. Das ergibt die erforderlichen rheologischen Eigenschaften (Fließeigenschaften) von Tinten, die eine Verdruckbarkeit gewährleisten. Ein weiterer wichtiger Aspekt des Ladungsträger-Transports ist das Material der verwendeten Elektroden. Da bei p-Leitung der Transport im HOMO-Energiebereich stattfindet, kann man edle und damit stabile Metalle wie Gold als Elektroden einsetzen, um damit Ladungsträger in den Halbleiter zu injizieren. Die n-Leitung basiert auf Ladungsträgern im Energiebereich des LUMO-Niveaus. Deshalb sind häufig nur unedle Metalle wie Calcium als Elektrodenmaterial ge- BA N D L Ü C K E LUMO LUMO Leitungsband Leitungsband Elektroneninjektion Elektronenextraktion Elektronentransport Bandlücke Bandlücke Lochinjektion Elektrode Lochtransport Lochextraktion Valenzband Valenzband HOMO HOMO Polymer Elektrode p-TypLadungsträgertransport Elektrode Polymer Elektrode n-TypLadungsträgertransport Bandlücke in organischen Halbleitern und Ladungsträgerinjektion durch geeignete Elektroden. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 229 O RG A N I S C H E R F E L D E F F E K T-T R A N S I S TO R VGS ABB. 5 Elektroden G S Isolator D O F E T- K E N N L I N I E 3 Drain−Strom / µA ABB. 3 Halbleiter 2,5 2 2,5 1 0,5 0 Substrat 20 25 30 eignet, die sehr leicht an Luft oxidieren und dabei ihre metallischen Eigenschaften verlieren. Der Einsatz solcher Elektroden erfordert also eine effiziente Verkapselung, die bei der Herstellung von organischen Leuchtdioden (OLEDs) und organischen Photovoltaikzellen (OPV) bereits eingesetzt wird. se Art von Ladungsträgertransport findet sich typischerweise in gedruckten Halbleiterschichten. Abbildung 5 vergleicht exemplarisch OFET-Stromkennlinien aus diesem Modell mit gemessenen Kennlinien. Die Originalmessung ist durch die schwarze Kurvenschar dargestellt und die Modellierung mit VRH als rote Kurvenschar. Man erkennt die recht gute Übereinstimmung. In der Industrie und im entsprechenden akademischen Umfeld ist das Interesse an derartigen Simulationen hoch. In dem von der EU geförderten Projekt ORICLA und dem vom BMBF geförderten Projekt POLYTOS zum Beispiel werden hier wichtige Forschungsarbeiten für RFID- oder Sensor-Anwendungen geleistet, mit Fokus auf ihre drucktechnische Herstellung. O RG A N I S C H E H A L B L E I T E R R S * n Poly(3-alkylthiophen) Ar * R R Polyfluoren-Derivat * n * * R n PPV-Derivat Beispiele für organische Halbleiter: Polymere mit konjugierten Doppelbindungen. R steht für Rest, n deutet die n-fache Wiederholung der dargestellten Monomere in Polymeren an. 230 15 Vergleich zwischen einer gemessenen OFET-Kennlinie (schwarz) und ihrer Modellierung durch das VRH-Modell (rot). Elektrische Simulation S 10 Aufbau eines organischen Feldeffekt-Transistors (OFET) mit Source (S)-, Drain (D)- und Gate-Elektrode (G). Bei der Optimierung von Druckprozessen und bei der Entwicklung von gedruckten Schaltungen ist die elektrische Simulation der so hergestellten Bauelemente ein wichtiges Hilfsmittel. Deshalb hat man für Transistoren in der Polymerelektronik theoretische Modelle entwickelt, um die speziellen Transportmechanismen für die Ladungsträger in der Halbleiterschicht zu beschreiben. Da verschiedene Herstellungsprozesse zu unterschiedlichen Transportmechanismen führen können, eignen sich nicht alle Modelle für alle Prozesstechnologien gleichermaßen. Ein Beispiel ist das Modell des Variable-Range-Hoppings (VRH-Modell). Es wurde speziell für einen Transportmechanismus entwickelt, in dem die Ladungsträger thermisch aktiviert zwischen lokalisierten Zuständen tunneln [6]. Die- * 5 Source−Drain−Spannung / V VDS ABB. 4 0 Phys. Unserer Zeit 5/2013 (44) www.phiuz.de Der Herstellungsprozess Die gedruckte Elektronik hat gegenüber der konventionellen Siliziumelektronik den Hauptvorteil, dass man Polymerelektronikbauteile wesentlich einfacher und schneller herstellen kann. Die Polymerelektronik braucht weder hochsaubere Reinräume noch aufwendige, Energie fressende Vakuum- und Hochtemperaturprozesse. Es gibt zwar verschiedene Ansätze zur Herstellung von Polymerelektronik, die teilweise auch Vakuumprozesse wie Aufdampfen oder Sputtern enthalten. Die Drucktechnik ist jedoch der wirtschaftlich vorteilhaftere und daher aussichtsreichste Prozess. Die grundlegende Funktionsweise organischer Transistoren ist sehr einfach und mit derjenigen von herkömmlichen Dünnfilm-Transistoren durchaus vergleichbar [1]. Die für die verschiedenen Transistorebenen benötigten Materialien lassen sich, vom Substrat abgesehen, in kommerziell erhältlichen organischen Lösungsmitteln lösen. Man kann sie deshalb als elektronische Tinte aufbringen, zum Beispiel durch additives Drucken, also übereinander geschichtet. Es muss dabei natürlich sichergestellt sein, dass die eingesetzten Lösungsmittel nicht die darunter liegenden Schichten © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim GEDRUCK TE ORGANISCHE ELEK TRONIK f ∝µ⋅ U DS L2 beschrieben, wobei UDS die am Transistor angelegte Spannung ist. Je kürzer die Kanallänge L ist, also der Abstand zwischen den Source- und Drain-Elektroden, und je höher die Ladungsträgerbeweglichkeit µ ist, desto schneller schalten die Transistoren. Die Kanallänge wird durch die Prozesstechnik begrenzt, wohingegen die Ladungsträgerbeweglichkeit im Wesentlichen eine Materialeigenschaft ist. Da die Kanallänge sogar quadratisch eingeht, erhöht also eine Miniaturisierung der Halbleiterstrukturen die Schaltfrequenz besonders wirksam. Über die Auflösung des Druckverfahrens kann man also die Leistungsfähigkeit eines OFETs beeinflussen. Über optische Aspekte hinaus stellt die gedruckte Elektronik jedoch noch weitere Anforderungen an die Drucktechnik. Einerseits benötigt man zusammenhängende feine Linien als Leiterbahnen, andererseits klar voneinander getrennte Bereiche ohne direkten elektrischen Kontakt, um Kurzschlüsse zu vermeiden. Die Herstellung von gedruckter Elektronik hat zudem den großen Vorteil, dass man durch einen ausgeklügelten Einsatz von hochpräzisen, kontinuierlichen Rolle-zu-RolleProzessen verschiedenartige elektronische Bauteile quasi in einem Druckdurchlauf herstellen kann (Abbildung 6). Dazu zählen Transistoren, Kondensatoren, Speicherelemente, Dioden oder vertikale Durchkontakte (Vias) zwischen den gestapelten Schichten. Jede in Abbildung 6 gezeigte Schicht besitzt eine bestimmte elektrische Funktion, sie ist zum Beispiel isolierend, leitfähig oder halbleitend. Daher kann man nicht, wie in der Druckwelt üblich, einfach Zusätze zur Anpassung der Druckparameter beifügen, da diese in der Re© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim ABB. 6 G E D R U C K T E E L E K T RO N I K Top-Elektroden Dielektrikum • organischer Halbleiter; ferroelektrisches Material • • • Boom- Elektroden Polyester-Substrat (PET) Widerstände, Leiterbahnen Kondensatoren, Speicherelemente Dioden, Photovoltaische Zellen Transistoren Durchkontakte (Via) • transparente leiähige Folien an- oder auflösen. Ist dieses gegeben, so ist es möglich, Elektronik in kontinuierlichen Druckprozessen sehr preiswert herzustellen, mehr oder weniger wie beim Zeitungsdruck. Es gibt dabei eine Vielzahl verschiedener Drucktechniken, die man in Hoch-, Tief- und Flachdruck-Verfahren einteilen kann. Diese Unterteilung richtet sich danach, wie das bildgebende Element, also zum Beispiel eine Druckwalze, aufgebaut ist. Der Flexodruck gehört zu den Hochdruckverfahren, bei dem das zu druckende Bild als eine erhobene flexible Kunststoffschicht auf der Druckwalze aufgebaut ist. Der Offsetdruck gehört hingegen zu den Flachdruckverfahren. Dabei ist das zu druckende Bild auf einer flachen Walze durch unterschiedliche Bereiche definiert, die Wasser abweisend oder aufnehmend sind. In beiden Fällen wird das gewünschte Abbild über eine strukturierte Platte oder Rolle auf ein Substrat übertragen. Die heute üblichen Druckverfahren haben typischerweise Auflösungen oberhalb von 100 µm. Für organische Schaltungen werden aus schaltungstechnischen Gründen [1] jedoch Auflösungen unterhalb von 20 µm angestrebt. Ein Grund ist die mögliche Erhöhung der maximalen Schaltfrequenz eines organischen Transistors. Physikalisch wird sie durch die Gleichung TECHNISCHE PHYSIK Der gedruckte Aufbau aus elektrisch funktionellen Schichten ermöglicht unterschiedliche elektronische Bauteile, die hier exemplarisch nebeneinander gestellt sind. gel die elektrischen Eigenschaften stark negativ beeinflussen. Schließlich ist noch die Registergenauigkeit wichtig. Diese Größe erfasst die Positioniergenauigkeit der einzelnen „Farben“ zueinander und ist ein Qualitätsmerkmal für den Druck. Nur eine hohe Registergenauigkeit ermöglicht ausreichend präzise übereinander liegende, elektrisch funktionierende Strukturen. Beim normalen Druck wird dies heute optisch geprüft. Der Druck elektronischer Schaltungen erfordert es zudem, dass zusätzlich eine elektrische Kontrolle in den Druckprozess integriert wird. Diese muss ebenfalls bei hohen Druckgeschwindigkeiten zuverlässig funktionieren. Erste Anwendungen Gedruckte Elektronik könnte schon bald in vielfältiger Weise neue Anwendungen ermöglichen, wobei erste Anwendungen auf den Markt kommen [7]. Das Ziel ist jedoch nicht, die herkömmliche Siliziumelektronik zu verdrängen. Es werden keine hochkomplexen Schaltungen wie Prozessoren angestrebt, sondern eher einfachere Strukturen. Die kostengünstige Rolle-zu-Rolle-Produktionstechnik soll ganz neue Märkte eröffnen, bei denen niedrigere Preise und hohe Volumina wichtiger sind als höchste technische Anforderungen. Gedruckte und konventionelle Elektronik werden also auf absehbare Zeit nebeneinander in verschiedenen Bereichen existieren. Wir wollen hier nun einige Beispiele vorstellen, die unsere Firma herstellt: gedruckte Funketiketten (RFID-Tags) [8], transparente leitfähige Folien [9] und gedruckte Smart Objects [10]. Gedruckte Funketiketten Bei Radio-Frequenz-Identifikationssystemen (Radio-Frequency Identification, RFID) verbreitet ein Sendegerät Funksignale in Form von Radiowellen, und ein Funketikett (Tag) empfängt diese Signale. Diese berührungslose Informatiwww.phiuz.de 5/2013 (44) Phys. Unserer Zeit 231 onsübertragung hat gegenüber einem Barcode den Vorteil, dass ein direkter Sichtkontakt nicht erforderlich ist. Unsere PolyID-Funketiketten sind passiv. Das bedeutet, dass sie keine eigene Stromquelle besitzen, sondern über das Funkfeld des Lesegerätes mit Energie versorgt werden. Im Funketikett steckt eine Antenne. Diese empfängt die Radiowellen des Senders über induktive Kopplung, wobei die Radiofrequenz typischerweise bei 13,56 MHz liegt. Die Antenne versorgt eine gedruckte Schaltung, die hauptsächlich aus einer Abstimmkapazität, einem Gleichrichter und der eigentlichen Logikschaltung besteht. Bei Versorgung mit genügend Energie überträgt die Schaltung ihre gespeicherten Daten an das Lesegerät zurück [8]. Der Chip basiert auf gedruckten OFETs. Wie wir schon diskutiert haben, wird deren Funktionalität besonders durch eine hohe Druckauflösung beeinflusst. Dabei kommt es vor allem auf kleine Strukturgrößen der unteren Elektrodenebene an, wo die Source- und Drain-Elektroden sitzen. Uns ist es in den letzten Jahren gelungen, einen effizienten Produktionsprozess für diese Elektroden zu entwickeln. Dieser ermöglicht auch eine Herstellung von hochaufgelösten dünnen Leiterbahnen durch einen Rolle-zu-Rolle-Produktionsprozess in großem Maßstab [11]. Das neue Verfahren erlaubte uns dann die Entwicklung der nächsten Produkte. Displayfolien Für Anwendungen wie Displays, Berührungssensoren oder auch ultradünne Heizelemente zum Beispiel für Außenspiegel von Autos werden flexible und optisch transparente Folien benötigt, die über eine Beschichtung mit möglichst hoher elektrischer Leitfähigkeit verfügen. Derartige Anwendungen werden heutzutage oft aus Kunststofffolien hergestellt, die mit Indiumzinnoxid (Indium Tin Oxide, ITO) beschichtet sind. Diese Folien müssen dann für eine bestimmte technische Anwendung aufwendig strukturiert ABB. 8 T R A N S PA R E N T E , L E I T F Ä H I G E FO L I E leitfähiger Bereich Beispiel für ein individuelles Layout Gap Width transparentes PET- Substrat Kontaktpads und Anschlüsse 200µm Detailansicht der leitfähigen Beschichtung Transparente, leitfähige Folie mit individuellem Layout. 232 Phys. Unserer Zeit 5/2013 (44) www.phiuz.de Abb. 7 Transparente, leitfähige Folien mit Strukturen in hoher Auflösung. werden. Deshalb gibt es einen großen Bedarf an preislich attraktiven Alternativen mit möglichst verbesserten Gebrauchseigenschaften. So eine neue Alternative ist unsere Technologie zur Herstellung von leitfähigen Schichten auf Foliensubstraten. Die Herausforderung dabei ist die Kombination zwischen ausreichender Transparenz und genügend hoher Leitfähigkeit der feinen, für das Auge möglichst unsichtbaren Leiterbahnstrukturen. Dazu drucken wir auf dünnen, flexiblen Folien aus Polyethylenterephthalat (PET) Strukturen in einer typischen Auflösung von etwa 10 µm. So erreichen wir eine hohe Transparenz über einen breiten Wellenlängenbereich von 400 bis 800 nm im sichtbaren Spektrum. Die Transparenz und Leitfähigkeit können wir dabei an die konkrete technische Anwendung anpassen, indem wir die Breite und Dichte der leitfähigen Strukturen auf der Folienfläche entsprechend designen. Als leitfähiges Material kommen verschiedene Metalle zum Einsatz. Je nach Anwendung können wir sie über die gesamte Folienlänge und -breite aufbringen oder in Form einer Bebilderung als individuelles Layout. Hier ist das Rolle-zu-Rolle-Druckverfahren wesentlich flexibler als die herkömmliche ITO-Technologie (Abbildung 7). Im Gegensatz zu den brüchigen ITO-Folien ermöglicht es die hohe Flexibilität unserer Folien, diese in räumlich gekrümmte, kurvige Oberflächen zu integrieren, die dann etwa mit berührungsempfindlichen Bedienelementen versehen sind (Abbildung 8). In der Produktion kann man unsere Folien sogar mit Spritzguss kombinieren, um neue Designs zu verwirklichen. Das alles zeigt, dass diese Technologie durchaus eine attraktive Alternative zu den etab© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim GEDRUCK TE ORGANISCHE ELEK TRONIK TECHNISCHE PHYSIK Abb. 9 Funkaktivierbares Display mit Aktivator. Auf der Vorderseite erscheint das hier gezeigte Bild, sobald die Karte in die Nähe des Aktivators kommt. lierten ITO-Folien ist, die damit eine kostengünstige Massenproduktion ermöglicht. Gedruckte Smart Objects Unter gedruckten Smart Objects versteht man eine Kombination von verschiedenen Komponenten gedruckter Elektronik. Das können Eingabeelemente sein wie Tastaturen, Displays, Energiequellen wie Batterien oder Solarzellen, oder Sensoren und Logikschaltungen. Aus dem Baukasten dieser Einzelkomponenten kann man eine Vielzahl neuer Anwendungen realisieren. So ist es zum Beispiel möglich, durch die Kombination einer gedruckten Batterie mit einer Logikschaltung, einem Eingabeelement und einem Display Einwegsensoren, Spiele oder Informationsdisplays aufzubauen. Eine weitere neue Entwicklung auf dem Gebiet der gedruckten Elektronik sind durch Funkwellen aktivierbare Displays. Diese kann man ebenfalls auf dünnen und flexiblen Kunststofffolien mit modernen Rolle-zu-Rolle-Prozessen herstellen. Als erstes Produkt aus unserer PolyLogo-Reihe wollen wir ein durch Funk aktivierbares Display vorstellen. Im inaktiven Zustand ist die Information nicht sichtbar. Wie bei unseren passiven Funketiketten ist das Display durch Energieaufnahme von Radiofrequenzwellen einschaltbar. Dann zeigt es eine vorher definierte Information an, zum Beispiel ein Symbol oder Logo [10]. Wir nennen es PolyLogo-RAD, wobei RAD für Radio-Activated Display steht. Das Aktivierungsgerät arbeitet auch hier mit Funkwellen auf einer typischen RFID-Frequenz (Abbildung 9 links). Technisch besteht ein solches Smart Object wieder aus einer Antenne auf einem Kunststoffsubstrat, hinzu kommen ein gedrucktes elektrochromes Display und die dazugehörige organische Treiberelektronik (Abbildung 9 rechts). Durch den Einsatz dieser elektrochromen Displays macht man sich die Möglichkeit zunutze, die optischen Eigenschaften eines Materials durch Anlegen eines elektrischen © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Feldes oder durch Stromfluss zu verändern. Wir setzen dazu bestimmte Kunststoffe ein, die sich reversibel oxidieren und reduzieren lassen. Je nach Polung entstehen unterschiedliche elektrisch geladene Zustände, die sich stark in ihrem Absorptionsverhalten unterscheiden. So lässt sich die Anzeige des Displays schalten. Bringt man dieses Etikett nun in das Feld des Aktivierungsgeräts, so nimmt sein Schwingkreis, der aus gedruckter Antenne und Kondensator besteht, dessen Funkwellen auf. Ein Gleichrichter wandelt es in eine für das Display passende Betriebsspannung um. Der Gleichrichter besteht aus gedruckten Dioden, die aus konjugierten Polymeren wie dem anfangs vorgestellten Poly(3-hexylthiophen) aufgebaut sind. Die Spannung aktiviert das Anzeigeelement. Nimmt man das Etikett aus dem Funkfeld, so erlischt die dargestellte Information wieder innerhalb einer kurzen Zeitspanne. Sie kann später erneut aktiviert werden. Am Ende unseres Produktionsprozesses haben wir wieder eine Folienrolle, die mit einzelnen Smart Objects bedruckt ist. Diese Rolle mit den Bauteilen kann man nun bei der normalen Herstellung von Karten oder Verpackungen direkt einlaminieren. Da die Folie dünn und flexibel ist, lassen sich Smart Objects so zum Beispiel elegant in Eintrittskarten oder Gutscheine integrieren. Funkaktivierbare Displays ermöglichen damit völlig neue Anwendungen, zum Beispiel interaktive Spielkarten, den Schutz von Marken oder Echtheitszertifikate. Die Smart Objects lassen sich zudem sehr gut im Scheckkartenformat weiter verarbeiten. Die hier vorgestellten Beispiele zeigen, dass gedruckte organische Elektronik im Wortsinne äußerst flexibel ist. Die Kombinationsmöglichkeiten verschiedener gedruckter elektronischer Komponenten, die heute schon zuverlässig funktionieren, ermöglicht eine Fülle von Einsatzmöglichkeiten. Vielleicht bringt die Zukunft sogar Anwendungen, an die wir heute noch gar nicht denken. www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 233 Zusammenfassung Die Autoren Die gedruckte Elektronik ist eine noch junge Plattform-Technologie, die eine Vielzahl an neuen Produkten ermöglicht. Dabei bringt man über moderne Rolle-zu-Rolle-Druckverfahren „elektronische Tinten“ auf großflächigen und flexiblen Substraten auf. Schicht für Schicht entstehen elektronische Bauelemente, wie organische Feldeffekttransistoren (OFETs). Deren Schaltfrequenz wächst quadratisch mit der Miniaturisierung des Abstands zwischen Source- und Drain-Elektrode. Für anspruchsvollere Anwendungen müssen die Druckverfahren deshalb eine Auflösung und auch Präzision im Mikrometerbereich erreichen. Es gibt bereits funktionierende Funketiketten (RFID-Tags). Weitere Anwendungen sind transparente leitfähige Folien für berührungsempfindliche Displays und sogenannte Smart Objects. Stichworte Gedruckte organische Elektronik, organische Halbleiter, HOMO, LUMO, organischer Feldeffekt-Transistor, OFET, Funketikett-Tag, RFID, transparente leitfähige Folien, gedruckte Smart Objects. Literatur [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] 234 Phys. Unserer Zeit H. Rost, Kunststoffe 2005, 10, 209. H. Naarmann et al., Synth. Metals 1987, 22, 1. R. Blache et al., Kunststoffe International 2009, 4, 54. B. Eckers et al, Physik in unserer Zeit 2013, 44(2), 84. M. Böhm et al., IEEE International Solid-State Circuits Conference 2006, Digest of technical paper 2006, 270. M. C. J. M. Vissenberg et al., Physical Review B 1998, 57 (20), 12964. K. Riethus et al., Technik in Bayern 2012, 3, 16. H. Rost et al., Kunststoffe 2008, 6, 108. J. Wörle et al., Kunststoffe 2010, 4, 82. K. Ludwig, et al., Kunststoffe International 2011, 6, 42. J. Wörle et al., MRS Bull. 2011, 36 (10), 789. 5/2013 (44) www.phiuz.de Henning Rost studierte Chemie und promovierte 1996 an der Universität Jena. Nach einem Postdoc-Aufenthalt in Cambridge (UK) war er bei Osram Sylvania (US) und der Siemens AG in Forschung und Entwicklung tätig. Er arbeitet heute als Senior Project Manager bei PolyIC. Jürgen Krumm studierte Elektrotechnik an der Universität Erlangen-Nürnberg, wo er als wissenschaftlicher Mitarbeiter am Lehrstuhl für Rechnergestützen Schaltungsentwurf tätig war. Er arbeitet seit 2005 als Senior Research Scientist bei PolyIC. 2008 erfolgte seine Promotion zum Dr.-Ing. Katrin Riethus studierte Marketing und Kommunikation. Sie ist bei PolyIC als Product Marketing Manager beschäftigt und verantwortet den Bereich Öffentlichkeitsarbeit und Marketing. Klaus Ludwig studierte Elektrotechnik an der Universität Erlangen-Nürnberg. Ab 1997 arbeitete er bei der Siemens AG an der Forschung und Entwicklung magnetischer Sensorsysteme. 2004 wechselte er zu PolyIC. Seit 2012 ist er als Product Manager für „Printed Electronics & Displays“ zuständig. Anschrift Katrin Riethus, PolyIC GmbH & Co. KG, Tucherstraße 2, 90763 Fürth. [email protected] Webseite www.polyic.com © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Werbung DOI: 10.1002/piuz.201301332 Rotation im Sport Die Sache mit dem Dreh S IGRID T HALLER | L EOPOLD M ATHELITSCH Perfekte Drehungen sind beim Geräteturnen, Trampolin- und Turmspringen ein Muss. Für manche Techniken liefern fallende Katzen ein gutes Vorbild. chwungvolle Übungen im Geräteturnen, auf dem Trampolin oder beim Turmspringen enthalten meist mehrfache Drehungen. Dabei kommt es auf ein geschicktes Ausnützen der Physik und eine ideale zeitliche Koordination an. Viele Drehbewegungen erfolgen in der Luft, also ohne Kontakt mit dem Sportgerät, und scheinen den physikalischen Gesetzen zu widersprechen. In der letzten Folge haben wir die beim Geräteturnen auftretenden Kräfte vorgestellt (Physik in unserer Zeit 2013, 44(1), 40). Es zeigte sich, dass diese sehr oft zum Steuern von Drehbewegungen eingesetzt werden. Die auf das Sportgerät ausgeübten Kräfte bewirken dabei Drehmomente, die den Drehimpuls des Athleten verändern. Bei der Riesenfelge im Reckturnen zum Beispiel steigen die Kräfte bis etwa 2600 N an. Setzt der Sportler sie zeitlich richtig ein, dann erzeugt er dadurch erst den nötigen Drehimpuls und die nötige Drehgeschwindigkeit – wobei er diese durch die richtige Körperhaltung verstärkt. S Für die Berechnung des Drehimpulses ist also die Kenntnis des Trägheitsmoments notwendig: I hängt wesentlich von der Form des Körpers und seiner Dichteverteilung ab. Für einfache homogene Körper wie Kugel, Zylinder, Quader findet man die entsprechenden Formeln in Physiklehrbüchern. Der menschliche Körper hat aber keine einfache Form, außerdem kann der Sportler während der Bewegung seine Körperhaltung und damit auch sein Trägheitsmoment ändern. Um diese verschiedenen Trägheitsmomente in den Griff zu bekommen, wurden zunächst viele Messungen an Leichen, sowohl ganzen Körpern als auch Körperteilen, vorgenommen. Der russische Biomechaniker Vladimir Zatsiorsky durchleuchtete dagegen lebende Probanden mit schwacher Gammastrahlung und maß so die Massenverteilung [1]. Tabelle 1 zeigt ausgewählte Beispiele. Aus der Fülle der bisher gemessenen Daten kann man mit einfachen Modellen die individuellen Trägheitsmomente einzelner Personen abschätzen. Man muss zum Beispiel nur Länge und Umfang eines Unterschenkels wissen und erhält ABB. 1 SCHEINDREHUNG Trägheitsmoment, stabile Achsen Ein Sportler kann sich „im Flug“ drehen, obwohl er keinen Kontakt zum Sportgerät hat. Wie geht das? Befindet er sich in der Luft, zum Beispiel beim Abgang vom Reck oder bei einem Pferdsprung, so wirkt auf ihn nur die Schwerkraft, wenn man den Luftwiderstand vernachlässigt. Da die Gewichtskraft in seinem Schwerpunkt angreift, entsteht in Bezug auf diesen Punkt kein Drehmoment, und der Drehimpuls bleibt konstant. Anders ausgedrückt bewegt sich der Schwerpunkt in der Luft auf einer Wurfparabel, und der Sportler hätte eine konstante Winkelgeschwindigkeit, sofern er physikalisch gesehen ein starrer Körper wäre. Der Drehimpuls L um eine Achse durch den Schwerpunkt ist ein Vektor in Achsenrichtung. Er hängt von der Form und Massenverteilung des Körpers, ausgedrückt durch das Trägheitsmoment I, und von der Winkelgeschwindigkeit ω ab: Im Uhrzeigersinn v. l. unten n. r. unten: Simulierter Bewegungsablauf einer Scheindrehung in die Rückenlage [8]. L = I · ω. 236 Phys. Unserer Zeit 5/2013 (44) Online-Ausgabe unter: wileyonlinelibrary.com © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim R O TAT I O N dann anhand solcher Tabellen [1] dessen Trägheitsmoment. Die Trägheitsmomente der Körperteile kann man nun nach dem Steinerschen Satz zusammensetzen. Hat ein Körperteil der Masse m das Trägheitsmoment IS um eine Achse durch seinen Schwerpunkt, so ergibt sich sein Trägheitsmoment IA um eine dazu parallele Achse im Abstand d durch IA = IS + m · d. Betrachtet man den ganzen menschlichen Körper, so ändert sich das Gesamtträgheitsmoment je nach Körperhaltung und Drehachse: Bei einem Salto erfolgt die Drehung um die Breitenachse (frontale Achse). In gestreckter Haltung beträgt hier das Trägheitsmoment 10,5 bis 13 kg · m2, in gehockter Haltung etwa 4 bis 5 kg · m2. Bei einer Schraube oder Pirouette, also einer Drehung um die Längs- oder Transversalachse, liegt das Trägheitsmoment zwischen 1 und 1,4 kg · m2 bei angezogenen Armen sowie 2 und 2,5 kg · m2 bei gestreckten Armen. Eine Drehung um die sogenannte sagittale Achse, wie zum Beispiel beim Radschlagen, ergibt ein Trägheitsmoment zwischen 12 und 14 kg · m2. Die Angaben unterscheiden sich mitunter beträchtlich in der Literatur [1–4]. Im freien Flug sind nur die Drehungen um Achsen mit minimalem oder maximalem Trägheitsmoment, die sogenannten Hauptträgheitsachsen, stabil. Bei einem Salto kann es daher zu Torkelbewegungen kommen. Salto und Schraube Beim Absprung zu einem Salto wird eine Vorwärtsrotation durch das Abstoßen am Boden erzeugt. Der Sportler hat also zu Beginn bereits einen Drehimpuls. Im Flug kann er die Drehgeschwindigkeit durch das Anziehen der Arme und Beine steigern, weil er dadurch das Trägheitsmoment verringert. Knapp vor der Landung streckt er Arme und Beine wieder aus, das Trägheitsmoment wird größer und die Winkelgeschwindigkeit sinkt für eine sichere Landung. Beim Bodenturnen werden mehrfache Salti, oft noch mit zusätzlichen Schrauben, gesprungen. Eine Abschätzung des dafür benötigten Drehimpulses, der Drehgeschwindigkeit und der Sprunghöhe wird in „Salto und Schraube“ auf S. 238 präsentiert. TA B . 1 SPORTPHYSIK T R Ä G H E I T S M O M E N T E VO N K Ö R PE R T E I L E N Körperteil Ilg / 10–4 kg · m2 Iml / 10–4 kg · m2 Fuß Unterschenkel Oberschenkel Hals und Kopf Rumpf (oberer Teil) 10,3 ± 3,2 64,6 ± 25,0 413,4 ± 106,9 202,4 ± 38,9 1454,5 ± 359,0 40,0 ± 9,0 371,0 ± 90,6 1999,4 ± 453,0 293,9 ± 44,8 705,2 ± 224,2 Beispiele für Trägheitsmomente einzelner Körperteile, bezogen auf die Längsachse (longitudinal, lg) und eine Querachse (mediolateral, ml, von der Mitte zur Seite) der Körperteile. Mittelwerte ± Standardabweichung gemessen an hundert männlichen Probanden [1]. mit dem Rücken voraus fallen lässt, kann sich in der Luft ohne Probleme so drehen, dass sie sicher auf ihren Beinen landet [2-7]. Ursprünglich wurde dieses Phänomen damit erklärt, dass die Katze mit dem Schwanz eine heftige Kreisbewegung vollführt. Damit sollte sich der Drehimpuls des massearmen Schwanzes, der sich mehrfach dreht, mit demjenigen des restlichen Körpers aufheben, der wegen hoher Masse dann nur eine halbe entgegengesetzte Drehung vollführt. Experimente mit schwanzlosen Manxkatzen und Kaninchen [7] haben aber gezeigt, dass eine Drehung auch ohne diese ausgleichende Schwanzbewegung möglich ist. Genaue Videoanalysen enthüllen, dass das Tier zuerst seinen Vorderkörper nach vorne beugt. Mit den vorderen und hinteren Extremitäten macht es gleichsinnige Drehbewegungen, ohne den Körper in sich zu verwinden. Dadurch dreht es sich insgesamt um 180°, so dass sein Körper nach hinten überstreckt ist. Nun krümmt es seinen Rücken nach vorne und schafft es, richtig herum zu landen. Sein Ge- ABB. 2 S C H U LT E RG E L E N K Scheinrotation Nun stellt sich die Frage, ob Drehungen auch möglich sind, wenn man mit Drehimpuls Null abspringt. Kann etwa ein Turmspringer dann noch eine Drehung beginnen? Oder kann man seine Drehrichtung sogar während des Fluges ändern? Bei einer Translationsbewegung ist ja bei Impuls Null ohne äußere Kraft keine Ortsänderung möglich. Nun fragen wir uns, ob das Analoge auch für Rotationsbewegungen gilt. Ist bei Drehimpuls Null eine Winkeländerung ohne von außen wirkendes Drehmoment möglich? Bei einem starren Körper lautet die Antwort nein. Ein wohlbekanntes Beispiel zeigt jedoch, dass ein in sich beweglicher Körper dies sehr wohl kann: Eine Katze, die man © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Gesamtmoment, Muskelmoment und Winkelgeschwindigkeit im Schultergelenk während der Scheindrehung in die Rückenlage [8]. www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 237 samtdrehimpuls war zu jedem Zeitpunkt Null, dennoch hat es seinen Körper gedreht. Der Drehwinkel war also am Ende der Bewegung anders als zu Beginn [7]. Solche Drehungen werden auch Scheinrotationen genannt. Ähnlich funktioniert die sogenannte Hulabewegung eines Turners an den Ringen: Hängt er in Ruhe senkrecht an den Ringen, kann er seine Blickrichtung um 180° drehen, ohne ein dazu nötiges äußeres Drehmoment über die Ringe zu erhalten. Er beugt die Hüfte bei gestreckten Kniegelenken, danach dreht er Oberkörper und Beine entlang ihrer jeweiligen Längsachsen in dieselbe Drehrichtung und bewegt dabei die Hüfte entlang eines Kreises. Der deutsche Sportwissenschaftler Falk Hildebrand [4] berechnete die Anzahl der nötigen Kreisbewegungen für verschiedene Hüftwinkel, um den Gesamtkörper um 180° zu drehen. Beugt der Turner seine Hüfte um 20° gegen den Körper, so benötigt er etwa neun Hulabewegungen. Bei einem stärkeren Abwinkeln von 30° sind es 4,5, bei 40° nur noch 2,9 Bewegungen. Eine Drehung ohne Drehmoment kann man sich auch auf einem möglichst reibungsarmen Drehstuhl veranschaulichen: Verdreht man seinen Oberkörper ein Stück im Uhrzeigersinn, dann drehen sich Unterkörper und Stuhlkissen in die entgegengesetzte Richtung, so dass der Gesamtdrehimpuls Null bleibt. Nun kann man das Trägheitsmoment des Oberkörpers durch Ausstrecken der Arme ver- SA LTO U N D S C H R AU B E | Bei einem senkrechten Sprung lässt sich die Flugzeit aus der Sprunghöhe berechnen: T = 2⋅ 2h g . Springt der Turner einen einfachen Salto, so muss er sich in dieser Zeit T um nur etwa 300° oder im Bogenmaß 5π/3 drehen, weil er jeweils schräg abspringt und landet. Den dazu nötigen Drehimpuls L= I⋅ 5π 3T erzeugt er durch Abstoßen vom Boden. Nimmt man als Sprunghöhe 80 cm an, so beträgt die Flugzeit etwa T = 0,81 s. Bei einem gestreckten Salto rückwärts mit dem Trägheitsmoment I1 = 12 kg · m2 ergibt sich ein benötigtes Drehmoment von L = 77,5 kg · m2 · s–1. Bei konstantem Drehimpuls L und zeitabhängigem Trägheitsmoment I(t) ist die Winkeländerung in rad gegeben durch dϕ = 238 Zieht der Turner nach t = 0,2 s die Beine an, verringert sich das Trägheitsmoment auf I2 = 4,5 kg · m2, und er kann mit dem oben berechneten Drehimpuls einen Doppelsalto um den Winkel L L dϕ = I ⋅ t + I ⋅ (T − t ) = 11,8 rad 1 2 oder 676° durchführen. Eine Schraube wird oft durch das einseitige Anlegen eines Armes eingeleitet und bewirkt eine Drehung des Körpers um etwa α = 10° um die sagittale Achse (selbe Achse wie beim Radschlagen). Der Gesamtdrehimpuls L ist nicht mehr parallel zur SaltoAchse, er kann in Drehimpulskomponenten in die drei Hauptachsen zerlegt werden. Die Komponente in Richtung Körperlängsachse ist L1 = L · sin α und mit Il = 1 kg · m2 ergibt sich für die Dauer einer Schraubendrehung: Tl = 2π ⋅ I l Ll = 0,47 s. ∫ I (t ) dt . L Phys. Unserer Zeit 5/2013 (44) www.phiuz.de größern. Damit rotiert der Oberkörper beim Zurückdrehen um einen kleineren Winkel als vorher, und am Ende hat man seine Blickrichtung im Uhrzeigersinn verschoben. Drehmomente in den Gelenken Bei jeder sportlichen Bewegung treten Drehungen in den Gelenken auf. Auch hier muss wieder ein Drehmoment wirken. Solche Drehmomente kann man per Video erfassen und aus den Positionen von angebrachten Markern Winkelgeschwindigkeit und Winkelbeschleunigung errechnen. In erster Linie erzeugt die Muskulatur, die über das Gelenk zieht, diese Drehmomente. Hinzu kommen die Drehmomente von äußeren Kräften wie der Schwerkraft oder von Kräften, die durch die Bewegung angrenzender Gelenke entstehen. Auch die Masseverteilung der involvierten Körperglieder spielt mit. Stellt man sich zum Beispiel gerade hin und beugt den Unterarm um 90°, dann befindet sich das Ellbogengelenk nicht mehr senkrecht unter der Schulter. Lässt man nun den Unterarm herunterfallen, verschiebt sich der Schwerpunkt im Arm so, dass sich der Ellbogen nach vorne bewegt. Das bewirkt eine Drehung im Schultergelenk, an der aber keine Schultermuskeln beteiligt sind. Man spricht hier von „Nichtmuskelkräften“. In der Sportpraxis ist die Unterscheidung, wodurch die Drehmomente in den Gelenken verursacht werden, sehr wichtig. Der Trainer sieht die Bewegung des Gelenks von außen, nur der Sportler weiß, welche Muskeln er bewegt. Will der Trainer zum Beispiel den Sportler anweisen, dass er ein bestimmtes Gelenk beugen soll, so kann es sein, dass der Sportler nur die Streckmuskulatur etwas weniger einsetzen muss. Oft ist sogar Muskelkraft nötig, um ein Gelenk ruhig zu halten. Damit kommen wir nochmals zur Riesenfelge am Reck zurück. In der letzten Folge dieser Reihe haben wir festgestellt, dass die Kraft, die diese Drehung beschleunigt, durch Anziehen der Beine erzeugt wird. Der Athlet verringert so sein Trägheitsmoment. Dieses Anziehen erfolgt aber entgegen physikalischen Prinzipien nicht am untersten Punkt unter der Reckstange, sondern knapp danach. Der Grund dafür sind wieder Drehmomente, die nicht durch die Hüftbeugemuskulatur erzeugt werden und die daher die Bewegung für den Sportler einfacher machen. Die Unterscheidung von Trainersicht und Sportlersicht enthält physikalisch gesehen noch eine weitere Schwierigkeit: Der Trainer befindet sich (fast) in einem Inertialsystem, im drehenden System des Sportlers treten dagegen Scheinkräfte auf. Die Sportwissenschaftler Martin Sust und Gong Bing Shan [8, 9] untersuchten den Zusammenhang von Außen- und Innensicht und der beobachteten Drehmomente anhand einer Scheindrehung im Trampolinsprung. Dabei springt der Sportler gerade in die Höhe und leitet in der Luft eine geeignete Bewegung ein, um auf dem Rücken zu landen (Abbildung 1). Er hat also am Anfang Drehimpuls Null, und das bleibt in der Luft auch so. Er führt also wie eine Katze eine Scheindrehung durch. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim R O TAT I O N Aus der gemessenen Bewegung wurden das Gesamtdrehmoment und das von den Muskeln erzeugte Drehmoment in einzelnen Gelenken berechnet. Betrachtet man zum Beispiel die Summe der wirkenden Drehmomente im Schultergelenk und die dazugehörigen Winkelgeschwindigkeiten (Abbildung 2), so fällt auf, dass bei den Maxima der Geschwindigkeiten die Drehmomente nicht null sind. Da sich in den Gelenkdrehungen das Trägheitsmoment nicht ändert, ist das scheinbar ein Widerspruch zur Physik. Die Auflösung liegt wieder im gewählten Bezugssystem. Es ist kein Inertialsystem und daher wirken Scheinkräfte. Solche Simulationen können auch Auskunft über kritische Phasen in der Bewegung geben: Ändert man die Anfangsposition der Hüfte ein wenig, so dass sie nicht überstreckt ist, lässt sich diese Drehung in die Rückenlage nicht mehr durchführen [8, 9]. SPORTPHYSIK Literatur [1] V. M. Zatsiorsky, Kinetics of Human Motion, Human Kinetics Pub Inc., Champaign (Illinois) 2002. [2] C. Frohlich, Am. J. Phys. 1979, 47(7), 583. [3] C. Frohlich, Scientific American 1980, 242 (3),113. [4] F. Hildebrand, Eine Analyse der Drehbewegungen des menschlichen Körpers, Meyer&Meyer, Aachen 1997. [5] K. Wiemann, Sportunterricht 1987, 36, 409. [6] J. R. Galli, The Physics Teacher 1995, 33, 404. [7] J. E. Fredrickson, The Physics Teacher 1989, 27, 620. [8] M. Sust et al., Spectrum der Sportwissenschaften 2003, 15, 34. [9] G. Shan et al, Kinesiology 2004, 36, 5. Die Autoren Zusammenfassung Perfekte Drehungen sind beim Geräteturnen, Trampolin- und Turmspringen ein Muss. Besonders interessant sind Scheindrehungen, für die fallende Katzen ein gutes Vorbild sind. Dabei bewegen sich Sportler mit einem Gesamtdrehimpuls Null durch die Luft. Durch bestimmte Bewegungen können sie trotzdem ihren Körper drehen. Aus physikalischer Sicht interessant ist zudem, dass Sportler sich bei Drehungen nicht in Inertialsystemen befinden. Es treten Scheinkräfte auf, die sie gezielt nutzen können, um Muskelkraft zu sparen. Sigrid Thaller und Leopold Mathelitsch verfassen seit 2006 die Reihe „Sportphysik“. Anschrift Ao. Univ.Prof. Dr. Sigrid Thaller, Institut für Sportwissenschaft, Karl-Franzens-Universität Graz, Mozartgasse 14/I, A-8010 Graz, Österreich. [email protected], [email protected] Stichworte Drehungen, Scheindrehungen, Nichtmuskelkräfte, Geräteturnen, Trampolin, Turmspringen. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 239 DOI: 10.1002/piuz.201301343 Manchmal hilft nur Trägheit H. J OACHIM S CHLICHTING | C HRISTIAN U CKE Was auf den ersten Blick wie ein simples Geduldsspiel erscheint, ist in Wirklichkeit ein raffiniertes physikalisches Spielzeug: die Kugelwippe. Was mit Geduld nur sehr schwer zu erreichen ist, gelingt mit einem physikalischen Trick. Abb. 1 Eine Kugelwippe, bei der die beiden Kugeln in die höher gelegenen Nischen befördert werden müssen. 240 inen richtigen Namen hat das Spielzeug nicht. In Deutschland ist es manchmal unter dem Namen Kugelwippe bekannt. Im englischsprachigen Raum wird es unter anderem Moses Cradle oder The Original 2 Balls Trick genannt. Das Spielzeug besteht in den meisten Ausführungen aus einem flachen Halbzylinder mit einer transparenten Abdeckung (Abbildung 1). Innen befinden sich zwei Kugeln, die normalerweise im Minimum des Potentialtopfes liegen, meist durch eine kleine Barriere voneinander getrennt. An beiden Seiten der höchsten Stelle besitzt die Kugelwippe zwei kleine Mulden, in die – und das ist das Ziel des Spiels – die beiden Kugeln befördert werden sollen. Da Magnete nicht erlaubt sind, kann das ziemlich schwierig werden, zumindest wenn man es mit Schütteln versucht. Denn sobald man sich nach gelungenem Einlochen der einen Kugel der anderen zuwendet, kullert die erste Kugel wieder aus ihrem Loch heraus, und das Spiel beginnt von vorn. Besinnt man sich allerdings auf die physikalischen Möglichkeiten der Kugeln, so kommt man vielleicht auf die Idee, dass es auch extrem einfach gehen kann. Denn es genügt, die Wippe mit Daumen und Zeigefinger in schnelle Rotation um die senkrechte Achse zu versetzen. Die Kugeln begeben sich dann gewissermaßen freiwillig, sprich mit physikalischer Notwendigkeit, in Sekundenschnelle in die höhere Position. Daher rührt auch die Bezeichnung One Second Puzzle. Wie kommt es dazu? Gehen wir zunächst von einer etwas einfacheren Vorrichtung aus, bei der der Boden der Wippe flach wäre. Man hätte es also mit einer Rinne zu tun, die man sich durch ein kurzes, beidseitig offenes Rohr realisiert denken kann. Platziert man nun eine Kugel etwa in die Mitte des Rohres und setzt dieses wie die Wippe um eine senkrechte Achse durch die Mitte in Drehung, so schießt die Kugel aus der einen oder anderen Öffnung des Rohres heraus. Läge die Kugel genau in der Drehachse, so würde sie dort auch während der Drehung liegen bleiben. Das ist aber eine labile Gleichgewichtslage, und weil sie praktisch immer ein wenig von der Mitte entfernt ist, wird sie durch die widerständige Rohrwand in Bewegung gesetzt. Aus Trägheit hat sie die Tendenz, sich geradlinig gleichförmig weiterzubewegen. Des- E Phys. Unserer Zeit 5/2013 (44) Online-Ausgabe unter: wileyonlinelibrary.com halb entfernt die Kugel sich immer weiter tangential von dem Kreis, auf dem sich die Stelle um das Drehzentrum bewegt, an der sie sich gerade befindet. Auf diese Weise gelangt sie immer weiter zu einer Öffnung des rotierenden Rohres und verlässt es schließlich mit einer erstaunlich hohen Geschwindigkeit. In der Wippe sind die Verhältnisse ähnlich. In diesem Fall wird die spiralförmige Bewegung vom Drehzentrum weg aber zusätzlich dadurch erschwert, dass der Boden halbkreisförmig nach oben gekrümmt ist. Dadurch erfährt die Kugel durch die Gravitation eine Hangabtriebskraft, die ihrem Weg nach außen entgegenwirkt. Wenn die Drehgeschwindigkeit groß genug ist, schafft sie es trotzdem, so weit an der gekrümmten Wand der Mulde aufzusteigen, bis sie in der vorgesehenen Nische landet. In der praktischen Ausführung sind die Kugeln in ihrer Ausgangsposition durch eine kleine Wand voneinander getrennt. Dadurch soll erreicht werden, dass jede Kugel in jeweils einer eigenen Nische eingelocht wird. Wenn man diese Wand entfernt, landen häufig beide Kugeln in derselben Mulde, was gegen die Spielregeln verstoßen würde. Für weitergehende experimentelle Untersuchungen ist die Kugelwippe ungeeignet. Seit vielen Jahren wird jedoch von der physikalischen Lehrmittelindustrie unter der Bezeichnung Kugelschwebe ein Gerät angeboten, das der Kugelwippe weitgehend gleicht. Sie kann mit einem Motor auf verschiedene Winkelgeschwindigkeiten ω beschleunigt werden. Obwohl es nur zum Nachweis der Proportionalität zwischen Zentrifugalkraft und Masse vorgesehen ist, kön© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim K U G E LW I P P E Im Laborsystem bewegt sich die Kugel auf einer dreidimensionalen Bahn, deren quantitative Beschreibung sehr kompliziert ist. Man kann das Problem aber stark vereinfachen, indem man sich mit der rotierenden Wippe mitbewegt denkt. In diesem System wandert die Kugel nur noch an der runden Innenwand der Wippe auf oder ab und bleibt bei konstanter Geschwindigkeit auf einer bestimmten Höhe liegen (Abbildung 2). In diesem Fall muss der Einfluss der Drehung durch eine Trägheitskraft, die Zentrifugalkraft FZ, berücksichtigt wer- den. Sie wirkt gemeinsam mit der Schwerkraft Fg so auf die Unterlage, dass durch sie eine elastische Reaktionskraft Fe provoziert wird und ein Kräftegleichgewicht entsteht: Die Kugel kommt infolgedessen in der entsprechenden Höhe an der gekrümmten Wand zur Ruhe. Diese durch die Entfernung x von der Drehachse oder den Auslenkungswinkel α charakterisierte Lage ist lokal gesehen stabil. Mit einer mathematischen Analyse kommt man der Sache auf den Grund. Wir wollen an dieser Stelle lediglich das Ergebnis präsentieren, die Herleitung finden Sie auf www.phiuz.de unter Special Features, Zusatzmaterial zu den Heften. Betrachtet man die potentielle Energie (Potential U) der Kugel als Funktion des Drehwinkels α, so fällt im Ruhezustand und bei kleinen Drehgeschwindigkeiten das Minimum der Wippe mit dem Minimum der potentiellen Energie zusammen (Abbildung 3). Da die Kugel stets diesem Potentialminimum zustrebt, verbleibt sie zunächst im Nullpunkt. Mit zunehmender Geschwindigkeit wird U jedoch wegen des wachsenden Einflusses der Trägheitskraft immer flacher. Bei der kritischen Winkelgeschwindigkeit ω c = g / r bilden sich plötzlich zwei lokale Minima aus, während das frühere Minimum zum lokalen Maximum wird. Bei weiterer Zunahme von ω werden die Minima von U immer ausgeprägter und wandern zu höheren Werten von α. Die Kugel wird nun – bildlich gesprochen – in eines der Minima „hineinrollen“. Welche Seite sie wählt, bleibt dem Zufall überlassen. Der Verlagerung der Minima zu höheren Werten von α entspricht die zunehmende Höhe beziehungsweise Entfernung x der Ruhelage der Kugel (Abbildung 2). Die Abhängigkeit des Ruhewinkels α0 von der Winkelgeschwindigkeit ω (Abbildung 4) zeigt deutlich, wie durch eine kontinuierliche Erhöhung eines Kontrollparameters zunächst überhaupt keine Änderung des Ordnungsparameters auftritt. Erst bei einem kritischen Punkt wird plötzlich die Symmetrie des Systems gebrochen, und der Ordnungs- ABB. 2 E F F E K T I V E S P OT E N T I A L Beschreibung im mitbewegten System DY N A M I S C H E S G L E I C H G E W I C H T ABB. 3 ABB. 4 u S 0,6 α r ω = ωc 0,4 ω > ωc Fe x 0,2 FZ FG GLEICHGEWICHTSWINKEL 50 30 10 -60 30 60 90 α 1,0 Schnitt durch die rotierende Wippe. Dynamisches Gleichgewicht zwischen den Kräften. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Download ω < ωc α0/Grad nen mit ihr alle genannten Phänomene auch quantitativ untersucht werden. Beim Experimentieren macht man die interessante Entdeckung, dass die Kugel bei kleinen Winkelgeschwindigkeiten zunächst keine Anstalten macht, ihre stabile Minimumlage zu verlassen. Erst wenn eine kritische Winkelgeschwindigkeit ωc überschritten wird, beginnt sie plötzlich in dem einen oder anderen gekrümmten Schenkel der Kugelschwebe aufzusteigen und dort in einer dem jeweiligen ω entsprechenden Höhe zu verharren. Dies entspricht einem Gleichgewichtswinkel α0 (Abbildung 2). Mit zunehmender Winkelgeschwindigkeit nehmen Höhe und Auslenkungswinkel α0 zu. Wir haben es hier also mit der merkwürdig erscheinenden Verhaltensweise zu tun, dass die Kugel durch langsame Erhöhung von ω zunächst überhaupt nicht reagiert und dann plötzlich ab einer kritischen Winkelgeschwindigkeit ωc beginnt, an Höhe zu gewinnen und dort genauso stabil festsitzt wie im Zustand der Ruhe im Minimum der Mulde. Man kann sich rein anschaulich überlegen, dass ωc umso kleiner ist, je flacher die Wippe, also je größer der Radius r der Wippe ist. Da die Kugel außerdem gegen die Schwerkraft anrollen muss, ist ω c außerdem umso kleiner je kleiner die Erdbeschleunigung ist. Die Rechnung ergibt ω c = g / r . S P I E LW I E S E Effektives Potential U als Funktion der Auslenkung α für (von oben nach unten) zunehmende Drehgeschwindigkeiten. Bei der kritischen Drehgeschwindigkeit ω c wird die Symmetrie gebrochen. Es entstehen zwei neue Minima. www.phiuz.de 2,0 ω 2/ωc2 Der Gleichgewichtswinkel α 0 der Wippe als Funktion des Quadrats der Drehgeschwindigkeit ω 2 in Einheiten von ω c2 (nur die positive Lösung ist eingezeichnet). 5/2013 (44) Phys. Unserer Zeit 241 ABB. 5 KU G E L I M R I N G Perle am Ring (links), gefangene Münze (rechts). parameter nimmt einen endlichen Wert an, der bei weiterer Erhöhung des Kontrollparameters weiter anwächst. Dies ist ein typisches Verhalten komplexer dynamischer Systeme, wie es in ganz ähnlicher Form bei Phasenübergängen in Vielteilchensystemen beobachtet wird. Von der Wippe zum Perlenring Physikalisch gesehen ist die Kugelwippe äquivalent mit einem kreisförmig gebogenen Draht, auf dem eine leicht bewegliche Perle aufgefädelt wurde (Abbildung 5a). Bringt man die Drahtenden leichtläufig (Kugellager) in einem Griff unter, so lässt sich der Drahtring durch seitliches Anstoßen in Rotation versetzen. Die Perle zeigt dann mit noch größerer Deutlichkeit dieselben Verhaltensweisen wie die Kugel in der Wippe. Bei einer anderen Konstruktion handelt es sich um ein Pendel mit einer starren Stange, die am oberen Ende mit einem Scharnier die Möglichkeit besitzt, einzuknicken. Bringt man dieses Pendel beispielsweise durch eine kleine Kurbel in Rotation, so zeigen sich auch hier in der seitlichen Auslenkung des Pendels dieselben Verhaltensweisen wie bei der Wippe. Eine sehr originelle Variante der Kugelwippe ist ein Schlüsselanhänger aus transparentem Kunststoff, in dem eine Euromünze sicher verwahrt wird (Abbildung 5b). Wer die Münze herausholen möchte, tut sich schwer. Will man sie nämlich unter dem Einfluss der Schwerkraft aus dem unteren Schlitz herausbefördern, sind die ebenfalls der Schwere unterliegenden Kugeln schon da und versperren diesen Weg. Mit dem physikalischen Wissen der Kugelwippe kommen wir leicht weiter. Man fasst den Anhänger am Schlüs- selring, lässt ihn frei hängen und versetzt mit der anderen Hand das Objekt in eine schnelle Drehung um die vertikale Achse. Die Kugeln bewegen sich trägheitsbedingt die Rinne hinauf und geben den Durchgang für die Münze frei, die dann auch herausfällt. Damit sich die Kugeln leicht bewegen können, gibt es darüber eine kleine Vertiefung, in der die Münze gehalten wird und während der Rotation nicht auf die Kugeln drückt. Wenn während der Rotation die Bahn frei ist, genügt ein kleiner seitlicher Stoß, um die Münze aus der Vertiefung heraus zu befördern, so dass sie frei aus dem Schlitz herausfallen kann. Schließlich sei noch ein transparenter Kunststoffkreisel erwähnt, der bunte Kugeln enthält (Abbildung 6). Bringt man ihn in genügend schnelle Drehung, so bewegen sich die Kugeln nach einer anfänglichen Phase des Durcheinanders an der inneren Wand des Kreisels hoch und verharren für eine Weile in dieser Position. Anders als bei der Kugelwippe gelangen sie in keine Nische, sondern „hängen“ gewissermaßen frei an der Wand. Genau genommen sind sie nicht ganz frei, sondern sie „kleben“ auch noch unter der Decke, die sie daran hindert, der Geschwindigkeit entsprechend noch höher zu „klettern“. Dadurch bleiben sie so lange in dieser Position, bis der Kreisel schließlich die kritische Winkelgeschwindigkeit unterschreitet, die zur „Fixierung“ der Kugeln in dieser Höhe mindestens nötig ist. Dann rollen sie unter dem Einfluss der dann wieder dominierenden Schwerkraft in die Spitze des Kreisels zurück. Der Kreisel wird dadurch so gestört, dass er – selbst, wenn er ansonsten noch eine Weile durchgehalten hätte – kurz danach abstürzt und ausrollt. Man erkennt leicht, dass sich die Kugeln im Kreisel im Prinzip auf dieselbe Weise nach oben bewegen wie jene in der Kugelwippe. Zusammenfassung Das Verhalten der Kugel in der Wippe ist ein dreidimensionaler Bewegungsvorgang. Quantitativ lässt sich dieser einfacher beschreiben, wenn die Bewegung der Kugel mit einigen Idealisierungen im mitbewegten Bezugssystem betrachtet und auf einen zweidimensionalen Vorgang reduziert wird. Es zeigt sich, dass zu jeder Drehgeschwindigkeit eine bestimmte Höhe gehört, an der die Kugel sich in einem Minimum der Energie befindet. Stichworte Kugelwippe, Kugelkreisel, rotierendes Bezugssystem. Bezugsquelle Im Internethandel beispielsweise unter www.hund-hersbruck.de. Die Autoren Hans-Joachim Schlichting und Christian Ucke sind die Begründer unserer Rubrik Spielwiese. Abb. 6 Hohlkreisel mit Kugeln, links in Ruhe, rechts in Drehung. 242 Phys. Unserer Zeit Anschrift Prof. Dr. Hans Joachim Schlichting, Didaktik der Physik, Universität Münster, 48149 Münster, [email protected]. Dr. Christian Ucke, Rofanstraße 14B, 81825 München, [email protected]. 5/2013 (44) www.phiuz.de © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Werbung DOI: 10.1002/piuz.201301333 Photoakustische Bildgebung Ultraschall aus Licht G ÜNTHER PALTAUF Optische Bildgebung in der Medizin ist wegen der starken Lichtstreuung in biologischem Gewebe meist auf Körperoberflächen beschränkt. Der photoakustische Effekt macht tiefere Bereiche zugänglich, indem er mit Licht dort über Absorption Ultraschall erzeugt. Diese Methode kann zum Beispiel Blutgefäße besser sichtbar machen als andere bildgebende Verfahren. ichtinvasive bildgebende Verfahren zählen heute zu den wichtigsten Hilfsmitteln der modernen Medizin. Sie liefern tiefe Einblicke in Bereiche des Körpers, die für visuelle Untersuchungen nicht zugänglich sind. Schuld daran ist vor allem die starke Lichtstreuung. Daher weicht man für die nichtinvasive Bildgebung in andere Bereiche des elektromagnetischen Spektrums aus, etwa in den Röntgenoder Radiowellenbereich, oder setzt auf die Akustik in Form von Ultraschallwellen. All diese Wellen haben gemeinsam, dass sie in biologischem Gewebe relativ wenig gestreut werden, aber doch so viel Wechselwirkung erfahren, dass sie Informationen aus dem Inneren des Körpers transportieren können. Doch auch Licht dringt recht tief in den Körper ein. Diffus kann es problemlos durch eine einige Millimeter dicke Gewebeschicht hindurch schimmern, wie man mit einem Laserpointer leicht selbst prüfen kann. Dieses diffuse Licht kennen wir von dichtem Nebel: Mitten in ihm ist es zwar hell, aber wir können die Sonne nicht sehen, weil ihr Licht auf dem Weg zu unseren Augen mehrfach diffus gestreut wurde. Dennoch wird Licht in der Bildgebung verwendet, und zwar im Bereich der sogenannten ballistischen Lichtausbreitung. Das ist jene Tiefe, in die das Licht eindringt, ohne die „Erinnerung“ an seine ursprüngliche Ausbreitungsrichtung verloren zu haben, siehe Zusatztext „Weiteres zum photoakustischen Effekt“ auf www.phiuz.de, Special Features/ Zusatzmaterial zu den Heften). Um bei unserem Bild zu bleiben, ist das jener Bereich, in dem man die Sonnenscheibe noch erkennen kann, also relativ nahe der Obergrenze der Nebelschicht. In biologischem Gewebe ist das abhängig von der Lichtwellenlänge eine Schicht von bis zu etwa 1 mm Dicke, in der man hoch aufgelöste Bilder mit optischer Kohärenztomographie gewinnen kann. Tiefer, im diffusen Bereich, ist es extrem N Download 244 Phys. Unserer Zeit 5/2013 (44) Online-Ausgabe unter: wileyonlinelibrary.com schwierig, direkt mit Licht Bilder aus dem Gewebe aufzunehmen. Photoakustische Bildgebung Die photo- oder optoakustische Bildgebung geht einen anderen Weg. Sie detektiert nicht Licht, sondern eine durch Licht hervorgerufene Erwärmung [1]. Befindet sich eine optisch absorbierende Struktur in einiger Tiefe unter der Gewebeoberfläche, so kann diese aus eingestrahltem Licht Energie aufnehmen, was in der Regel in einer Temperaturerhöhung resultiert. Dabei ist es relativ egal, dass dieses Licht auf dem Weg durch das darüber liegende Gewebe mehrfach gestreut wurde. Entscheidend ist die Frage, wie diese Temperaturerhöhung messbar wird. Dazu nutzt man den photoakustischen Effekt (eine physikalisch detaillierte Darstellung bietet wieder der Zusatztext auf www.phiuz.de). Am besten kann man diesen Effekt als „frustrierte thermische Ausdehnung“ umschreiben. Man schickt dazu einen kurzen Lichtpuls, üblicherweise aus einem Laser, mit einer Dauer von wenigen Nanosekunden ins Gewebe. An der Stelle, wo das Gewebe ihn hauptsächlich absorbiert, erwärmt es sich so schnell, dass die thermische Ausdehnung nicht mithalten kann. Die Folge ist eine Temperaturerhöhung unter konstantem Volumen, was den Druck ansteigen lässt (siehe Zusatztext). Dieser Überdruck ist proportional zur deponierten Energiedichte und somit zum Temperaturanstieg. In Licht absorbierenden Strukturen wie Blutgefäßen (Abbildung 1) wird dieser extrem kurze „Druckstoß“ zur Quelle von Ultraschallwellen. Diese sind an der Gewebeoberfläche messbar, sie liefern Informationen zur Verteilung der Lichtabsorption im Gewebe. Die entscheidende Aufgabe ist die Rekonstruktion eines photoakustischen Bildes aus den gemessenen Schallsignalen. Das erste Ziel ist dabei die Ermittlung der Orte und Stärken der Schallquellen. Das entspricht der Rekonstruktion der Verteilung der absorbierten Energiedichte nach dem Laserpuls. Das zweite, viel schwieriger zu erreichende Ziel ist die Rekonstruktion der Verteilung des optischen Absorptionskoeffizienten. Die Schwierigkeit liegt darin, dass die Verteilung der Energiedichte sich aus dem Produkt der Lichtverteilung und dem lokalen Absorptionskoeffizienten ergibt. Sie ist somit eine nichtlineare Funktion des Absorptionskoeffizienten. Meist gibt man sich daher mit der Rekonstruktion der Energiedichteverteilung zufrieden, da sie bereits ein gutes Abbild der absorbierenden Strukturen in © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim PHOTOAKUSTISCHE BILDGEBUNG einem Objekt liefert. Dazu gibt es zwei verschiedene Methoden, die photoakustische Mikroskopie und die photoakustische Tomographie. ABB. 1 MEDIZINPHYSIK PH OTOA KU S T I S C H E S M I K ROS KO PI E B I L D I Kapillaren Photoakustische Mikroskopie Die photoakustische Mikroskopie dient vor allem der hochaufgelösten Bildgebung [2]. Dabei wird ein Ultraschalldetektor mit einer akustischen Linse über die Oberfläche des untersuchten Objekts bewegt (Abbildung 2a). Er registriert photoakustisch erzeugte Schallwellen nur dann, wenn sie auf der Achse der Linse innerhalb des Bereichs der Schärfentiefe entstehen. Die Laufzeit eines Signals ergibt den Abstand der Signalquelle von der Linse. Die Bilder entstehen einfach aus der Aneinanderreihung einzelner Signale, der sogenannten A(mplituden)-Scans. Scannt man mit dem Detektor entlang einer Linie oder im Zickzackmuster über eine Fläche, entstehen zwei- oder dreidimensionale Bilder. Die Auflösung leitet sich aus den Eigenschaften des Schallsensors und der akustischen Linse ab. Je höhere Frequenzen der Sensor aufnehmen kann, desto besser löst das Gerät die Positionen von Schallquellen entlang der Achse auf. Die laterale Auflösung ergibt sich – wie immer bei einer mit Linsen abbildenden Mikroskopie – aus dem Quotienten der charakteristischen akustischen Wellenlänge und der numerischen Apertur der Linse. Die charakteristische Wellenlänge definiert sich dabei über die Mittenfrequenz des Sensors. Wir haben bis jetzt die Rolle der Beleuchtung außer Acht gelassen. Die Probe sollte so beleuchtet werden, dass in den Fokus der akustischen Linse noch genügend Licht gelangt. Ist der Fokus einige Millimeter tief im biologischen Gewebe, so ist das Licht dort schon diffus gestreut. Da die Eigenschaften des Schallsensors die Auflösung bestimmen, spricht man von photoakustischer Mikroskopie mit akustischer Auflösung (Abbildung 3) [3]. Eine interessante Variante ist die Verwendung eines optischen Mikroskopobjektivs zur Beleuchtung der Probe. Damit kann man innerhalb des optisch ballistischen Bereiches, also bis in etwa 1 mm Tiefe, eine extrem hohe Ortsauflösung erzielen. Das führt zur photoakustischen Mikroskopie mit optischer Auflösung (Abbildungen 2b und 1) [4, 5]. Sie ist auf die geringe Eindringtiefe beschränkt, liefert dort aber eine laterale Auflösung im Submikrometerbereich. Aber warum benötigt man überhaupt photoakustische Mikroskopie bei dieser Eindringtiefe? Dafür gibt es genügend andere optische Methoden wie konfokale Mikroskopie oder optische Kohärenztomographie. Die Antwort ist der alternative Kontrastmechanismus. Photoakustik ist für die rein optische Absorption empfindlich, während Fluoreszenz und Lichtstreuung die Kontrastmechanismen der anderen Methoden sind. Photoakustische Tomographie Die photoakustische Bildgebung lässt sich recht gut anhand eines Gewitters erklären: Der anregende Laserpuls entspricht einem Blitz, die erzeugte Ultraschallwelle dem nach© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Blutzellen Das photoakustische Mikroskopiebild zeigt winzige Blutgefäße im Mäuseohr mit hoher optischer Auflösung. Die Vergrößerung zeigt, dass dieses bildgebende Verfahren einzelne Kapillaren und sogar Blutzellen sichtbar machen kann [4] (Quelle: L. Wang, Washington U. St. Louis). folgenden Donner. Tatsächlich handelt es sich auch beim Donner um thermisch erzeugte Schallwellen. Wollen wir den Blitz genau lokalisieren, so können wir die bekannte Schallgeschwindigkeit in Luft nutzen – sowie die Tatsache, dass Licht sich um einige Größenordnungen schneller ausbreitet als Schall. Wenn wir den Blitz sehen, kennen wir zunächst seine Entfernung nicht. Durch Messung der Zeit vom Blitz bis zum Eintreffen des Donners können wir diese recht genau bestimmen, was dem eben beschriebenen Verfahren der photoakustischen Mikroskopie entspricht. Sehen wir dagegen den Blitz nicht direkt, weil er hinter einer Wolke verborgen ist und diese nur diffus erhellt, so können wir durch die Zeitmessung allein seinen Abstand, nicht aber die genaue Richtung feststellen. Für eine genaue Ortsbestimmung sind daher mindestens drei Beobachter an verschiedenen Positionen notwendig. So arbeitet die photoakustische Tomographie, bei der nicht fokussierte Detektoren zum Einsatz kommen (Abbildung 2c). Für die genaue Ortung einer einzelnen Schallquelle müssen mindestens drei Schallsensoren an unterschiedlichen Positionen die eintreffenden Ultraschallsignale messen. Bei einer komplizierteren Verteilung der Schallquellen sind es entsprechend mehr Sensoren, die idealerweise auf einer geschlossenen Fläche rund um das zu untersuchende Objekt platziert werden. Das Verfahren zur Rekonstruktion der so aufgenommenen Verteilung der Energiedichte nennt sich „radiale Rückprojektion“. Es setzt den betrachteten Sensor ins Zentrum virtueller Kugeln und verteilt die Schallsignale nach möglichen Entstehungsorten auf deren Flächen, wobei der Kugelradius mit der Zeit anwächst (Abbildung 4) [6]. Diese Methode eignet sich gut für größere Objekte. Gegenüber der Mikroskopie hat sie den Vorteil, dass im günstigsten Fall ein einziger Laserpuls ausreicht, um mit einer räumlichen Anwww.phiuz.de 5/2013 (44) Phys. Unserer Zeit 245 ABB. 2 M E T H O D E N D E R PH OTOA KU S T I S C H E N B I L D G E B U N G Laserpulse Ultraschall-Detektor mit akustischer Linse Objektiv akustischer Spiegel Schallwellen Laserpulse a) akustischer Fokus Scan b) optischer Fokus nicht fokussierter Detektor Ultraschall-Detektor mit Zylinderlinse Laserpulse c) d) a) Photoakustische Mikroskopie mit akustischer Auflösung. Ein Objekt wird mit kurzen Laserpulsen bestrahlt, und die dabei erzeugten Schallwellen werden mit einem fokussierten Schallsensor registriert. Der akustische Fokus bestimmt dabei die Auflösung. b) Photoakustische Mikroskopie mit optischer Auflösung. Die Anregung erfolgt über Laserpulse, die mit einem Mikroskopobjektiv auf das Objekt fokussiert werden. Die erzeugten Schallwellen werden mit einem akustischen Reflektor auf einen Schallsensor (blau) abgelenkt. Innerhalb des ballistischen Bereiches der Lichtausbreitung können so Bilder mit optischer lateraler Auflösung gewonnen werden. c) Dreidimensionale Tomographie. Das Objekt wird mit kurzen Laserpulsen bestrahlt, die erzeugten Schallwellen registriert ein nicht fokussierter Detektor. Ein Bild wird aus vielen Signalen berechnet, die aus allen Richtungen um das Objekt aufgenommen werden. d) Zweidimensionale Tomographie. Mit einer zylindrischen akustischen Linse grenzt man die Aufnahme von Signalen auf eine Fokusebene im Objekt ein. Durch Drehen des Objekts kann man aus den Signalen ein Bild der photoakustischen Quellen in dieser Ebene rekonstruieren. ordnung von Sensoren die Information für ein komplettes dreidimensionales Bild aufzunehmen. Leider ist es nicht einfach, so eine Anordnung von Sensoren technisch herzustellen. Betrachten wir dazu das Problem der photoakustischen Tomographie als eine Art mathematische Gleichung, dann ist die Verteilung der Energiedichte im Objekt die gesuchte Unbekannte. Genaugenommen sind es viele Unbekannte, eine für jedes Volumenelement (Voxel) im zu untersuchenden Objekt. Beziffern wir diese Voxelzahl mit N 3, wobei eine vernünftige Annahme N = 100 ist. Für eine Rekonstruktion brauchen wir dann gleich viele Gleichungen, also Messungen. Das kann man mit einer Anordnung von N 2 Sensoren auf einer idealerweise geschlossenen Fläche um das Objekt herum erreichen, wobei jeder Sensor ein Signal zu N Zeitpunkten aufnimmt. Bei unserer Annahme wären das 10 000 Sensoren. 246 Phys. Unserer Zeit 5/2013 (44) www.phiuz.de Alle sollen breitbandig und unabhängig auslesbar sein, was bei dieser Anzahl und Dichte kaum realisierbar ist. In der Praxis muss man daher Kompromisse eingehen. Einer ist die Verwendung eines einzelnen Sensors, der um die Probe herum bewegt wird. Andere Alternativen sind Arrays aus einer kleineren Zahl von Sensoren, die ein Bild mit limitierter Auflösung liefern oder zur Verbesserung des Rekonstruktionsergebnisses wiederum um das Objekt bewegt werden. Schließlich besteht auch die Möglichkeit, die Bildgebung auf eine zweidimensionale Schicht zu reduzieren. Nur über die Beleuchtung ist das allerdings nicht möglich, wegen der diffusen Lichtausbreitung. Daher werden Sensoren mit zylindrischen akustischen Linsen verwendet, die kreisförmig um das Objekt angeordnet (oder bewegt) werden und in eine Schicht fokussiert sind (Abbildung 2d). Diese Methode ist ein Mittelding zwischen Mikroskopie und © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim PHOTOAKUSTISCHE BILDGEBUNG ABB. 3 PHOTOAKUSTISCHES MIKROSKOPIEBILD I I Photoakustisches Mikroskopiebild mit akustischer Auflösung, das durch Abscannen des quadratischen Bereiches am Handballen gewonnenen ist. Rechts oben: Draufsicht auf den dreidimensionalen Datenblock, der die Blutgefäße unter der Haut darstellt. Die grüne gestrichelte Linie zeigt die Position des im unteren Bild dargestellten Schnitts an. Blutgefäße sind dort bis zu einer Tiefe von mehr als 1 mm sichtbar [3] (Quelle: L. Wang, Washington U. St. Louis). effizienten gefragt sind. Möglich wird das durch die Einbeziehung von Modellen der Lichtausbreitung in den Rekonstruktionsalgorithmus [7]. Eine spektral aufgelöste photoakustische Bildgebung erfordert zudem spezielle Lichtquellen. Eine große Eindringtiefe des Lichts in biologisches Gewebe erzielt man in dem Wellenlängenbereich, wo die optische Absorption gering ist. Das ist im nahen Infrarotbereich der Fall, etwa zwischen 700 und 1100 nm. Die Absorption von Hämoglobin ist hier nicht besonders hoch; und auch die Absorption von Wasser, dem dominierenden Absorber im mittleren Infrarot, ist hier noch niedrig. Fehlende Absorption geht auf Kosten des Kontrasts. Um dieses Dilemma zu lösen und um noch spezifischere Bilder zu gewinnen, werden auch für die Photoakustik Kontrastmittel untersucht, wie es sie schon für andere bildgebende Verfahren gibt. Denkbar sind alle Farbstoffe, die in den Körper eingeschleust werden können. Wegen ihres hohen Absorptionsquerschnitts sind vor allem diverse Nanopartikel Gegenstand intensiver Forschung, zum Beispiel Gold-Nanostäbchen. Gelingt es zudem, diese Absorber gezielt an die zu untersuchenden Strukturen anzukoppeln, ist das ideale Kontrastmittel gefunden. Man kann zum Beispiel die Teilchen mit Antikörpern verbinden, die an bestimmte Rezeptoren von Tumorzellen ankoppeln [8]. ABB. 4 PH OTOA KU S T I S C H E TO M O G R A PH I E Tomographie. Sie verwendet eine Linse, benötigt aber in der betrachteten Ebene trotzdem eine tomographische Rekonstruktion. Durch die Verringerung der Dimension ist es möglich, Arrays mit circa hundert Elementen für schnelle Bildgebung zu bauen. Laserpuls © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim ct1 ct1 Kontrastmechanismus Der Kontrastmechanismus der photoakustischen Bildgebung ist die optische Absorption. Jedes Objekt, das mehr Licht absorbiert als seine Umgebung, liefert einen Bildkontrast. In biologischem Gewebe sind die wichtigsten Absorber der Blutfarbstoff Hämoglobin und der vor allem in der Haut anzutreffende Farbstoff Melanin. Aus dem Gewebeinneren entstehen daher praktisch nur Bilder von der Verteilung von Blutgefäßen. Besonders interessant ist dabei die Tatsache, dass sich das Absorptionsverhalten von Blut mit der Sauerstoffsättigung ändert. Verantwortlich dafür sind leichte Verschiebungen im Absorptionsspektrum des Hämoglobins, wenn es eine Bindung mit Sauerstoff eingeht. Damit ist es grundsätzlich möglich, in Gewebe ein dreidimensionales Abbild der Sauerstoffsättigung zu gewinnen, wenn die Anregung der photoakustischen Signale mit Pulsen verschiedener Wellenlänge erfolgt. Eine solche quantitative Bildgebung geht über die bisher beschriebene Rekonstruktion der Energieverteilung hinaus, da hier absolute Werte des optischen Absorptionsko- MEDIZINPHYSIK Drucksignal Filterung t1 t1 Zeit Die photoakustische Anregung eines Objektes mit eingebetteten Absorbern (links oben) gibt ein Drucksignal, das von den einzelnen Quellen jeweils eine bipolare Form hat. Diese Signale werden nach Filterung auf ihre möglichen Entstehungsorte rückprojiziert (rechts oben). Für einen punktförmigen Sensor sind diese Orte Kugelschalen mit dem Sensor im Zentrum und mit einem Radius ct, wobei c die Schallgeschwindigkeit ist. Für eine Quelle in der Ebene braucht man mindestens zwei Beobachtungsorte (rote und blaue Rückprojektion), für die eindeutige Rekonstruktion komplizierter Quellenverteilungen wesentlich mehr. www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 247 Der ideale Sensor Die Photoakustik kann ihre Verwandtschaft mit der herkömmlichen Ultraschalldiagnostik nicht verleugnen. In beiden Fällen werden Strukturen im Inneren des Körpers mithilfe von Schallwellen sichtbar gemacht. Diese Strukturen sind bei beiden Methoden etwa gleich groß, daher ist auch der akustische Frequenzbereich sehr ähnlich. Tatsächlich konnten mit der Kombination eines herkömmlichen Ultraschallgerätes mit einem gepulsten Laser gleichzeitig Bilder mit beiden Methoden aufgenommen werden [9]. Die Information beider Bilder ist komplementär, da die Kontrastmechanismen sehr unterschiedlich sind. Die kombinierten piezoelektrischen Schallgeber und -Empfänger der herkömmlichen Ultraschalltechnik haben allerdings eine sehr begrenzte Bandbreite, sie sind auf die Frequenz der ausgesandten Schallwellen optimiert. Bei der Photoakustik hingegen hängt der Bereich der Schallfrequenzen in erster Linie von der Verteilung der absorbierten Energie im untersuchten Objekt ab: kleine Strukturen strahlen höhere Frequenzen ab als größere Strukturen. Um beliebige Objekte abzubilden, müssen die Detektoren für die Photoakustik daher breitbandig sein. Ideal wäre ein möglichst flacher Frequenzgang von wenigen 100 kHz bis einige 10 MHz. Eine weitere Komplikation ist die gleichzeitige Verwendung von Licht und Schall. Herkömmliche Piezoelemente sind nicht transparent und können das zu untersuchende Objekt von den Laserpulsen abschatten. Mit einer optischen Schallmessung kann man jedoch breitbandige, optisch transparente Sensoren realisieren. Um die Wechselwirkung des Schallfelds mit einer Lichtwelle zu erfassen, bieten sich interferometrische Methoden an. Mit ABB. 5 dünnen „Etalons“ etwa kann man gute Erfolge erzielen, die mit einem fokussierten Laserstrahl abgefragt werden und ein Signal durch eine leichte Dickenänderung im Schallfeld liefern [10]. Das Etalon besteht aus einer wenige Mikrometer dünnen Polymerfolie, die beidseitig mit dielektrischen Schichten mit hoher optischer Reflexion beschichtet ist. Sie bildet für die Lichtwelle einen optischen Resonator, der trotz kleiner aktiver Sensorfläche sehr empfindlich auf eine geringe Dickenänderung reagiert. Ein weiteres optisches Verfahren, das wir in Graz einsetzen, nutzt ein Mach-Zehnder-Interferometer. In ihm wird ein Laserstrahl mit einem Strahlteiler in zwei Zweige aufgespalten und später wieder vereinigt (Abbildung 5) [11]. Einer der Zweige bildet den Sensor nahe dem Untersuchungsobjekt, dort erzeugt die entstehende Schallwelle eine optische Phasenverschiebung. Für die akustische Kopplung befinden sich das Objekt und der fokussierte Interferometerstrahl in einem Wasserbad. Nach der Rekombination entstehen zwei Lichtbündel, deren Intensitäten gegenphasig mit dem zeitlichen Amplitudenverlauf der Schallwelle moduliert sind. Das erhaltene Signal gibt allerdings nicht den zeitlichen Druckverlauf an einem Punkt wieder, sondern das Integral des Druckfeldes über die Länge des Laserstrahls im Interferometer. Es stellt sich daher die Frage, ob aus solchen Integralen überhaupt eine genaue tomographische Rekonstruktion möglich ist. Tatsächlich kann man mathematisch beweisen, dass man mit einem zweistufigen Rekonstruktionsverfahren exakte Bilder berechnen kann. In einer Ebene senkrecht zum detektierenden Laserstrahl ist der Sensor sehr klein, gerade so groß wie der Strahldurchmesser. Daher kann man mit den schon vorgestellten Methoden der M AC H - Z E H N D E R- I N T E R F E RO M E T E R Detektor ST SP Laser SP LP ST L L SP WB Messung von Schallsignalen mit einem Mach-Zehnder-Interferometer für die photoakustische Tomographie. Das Objekt befindet sich in einem Wassertank und wird mit kurzen Laserpulsen bestrahlt. Die dabei erzeugten Druckwellen erzeugen Schwankungen in der optischen Brechzahl. Diese wandelt das Interferometer in Intensitätsschwankungen um, die zwei Photodetektoren messen. Für die Tomographie wird das Objekt gedreht und um den Strahl herumgeführt. ST: Strahlteiler, SP: Spiegel, L: Linse, WB: Wasserbad, LP: Laserpuls. 248 Phys. Unserer Zeit 5/2013 (44) www.phiuz.de © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim PHOTOAKUSTISCHE BILDGEBUNG tomographischen Rekonstruktion im ersten Schritt aus den gemessenen Signalen ein zweidimensionales Bild berechnen. Dieses entspricht einer Projektion der absorbierten Energiedichte in diese Ebene. Idealerweise sollte der Detektionsstrahl dafür Signale aus dem Objekt in möglichst allen Richtungen aufnehmen, muss also das Objekt vollständig überstreichen. Um die komplette Information über es zu gewinnen, muss noch die Orientierung des Detektionsstrahls relativ zum Objekt verändert werden. Das geschieht durch Rotation des Objektes um eine Achse senkrecht zu diesem Strahl (Abbildung 5). Im zweiten Schritt der Rekonstruktion wird aus den gesamten Projektionsbildern die dreidimensionale Verteilung der Energiedichte im Objekt berechnet. Dabei verwendet man mathematische Methoden aus der Röntgen-Computertomographie. Obwohl dieses Verfahren sich kompliziert anhört, benötigt es nicht mehr Daten als eine Rekonstruktion aus Messungen mit einem einzigen punktförmigen Detektor. Neben der eleganten optischen Detektion bietet es noch einen Vorteil. Die beschriebene tomographische Methode mit der Rückprojektion über Kugeloberflächen setzt nämlich voraus, dass die eingesetzten Sensoren punktförmig sind. Kleine piezoelektrische Sensoren verlieren allerdings an Empfindlichkeit. Daher muss man auf Sensoren mit üblicherweise wenigen Millimetern Durchmesser zurückgreifen. Diese endliche Größe wirkt sich bei der Rekonstruktion auf die erreichbare räumliche Auflösung aus, die im ungünstigsten Fall ebenso groß ist wie der verwendete Sensor. Dagegen kann man einen Lichtstrahl entweder durch Fokussierung oder durch Führung in einer Glasfaser ohne Probleme auf einige zehn Mikrometer Durchmesser begrenzen. Eine entsprechend hohe Auflösung kann man für die dreidimensionale Bildgebung erreichen. Abbildung 6 zeigt ein Objekt mit kleinen Details in der Größenordnung von 100 µm, aufgenommen mit einem Mach-Zehnder-Interferometer als Ultraschallsensor. Von Mäusen und Menschen Bis die photoakustische Bildgebung für Routineuntersuchungen am Menschen eingesetzt werden kann, wird wohl noch einige Zeit vergehen. Allerdings sind jetzt schon kommerzielle Systeme für die Untersuchung von kleinen Tieren erhältlich. Mäuse oder ähnlich kleine Tiere spielen eine wichtige Rolle in der medizinischen Forschung. Bei ihnen ermöglicht die auf wenige Zentimeter limitierte optische Endringtiefe sogar eine Ganzkörper-Tomographie (Abbildung 6). Beim Menschen ist das möglicherweise wichtigste zukünftige Einsatzgebiet, das auch zurzeit am meisten erforscht wird, die Früherkennung von Brustkrebs. Nicht unbedingt als Alternative, sondern als Ergänzung zur herkömmlichen Mammographie mit Röntgenstrahlen. In Tumoren gibt es eine ungewöhnliche Ansammlung von neugebildeten Blutgefäßen zur Versorgung der Tumorzellen. Genau diese Blutgefäße macht die photoakustische Tomo© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim ABB. 6 MEDIZINPHYSIK ZEBRAFISCH 2 mm Zwei Projektionen eines dreidimensionalen Datensatzes, der ein photoakustisches Tomographiebild eines Zebrafisches enthält. Der Fisch war fixiert und befand sich in Gelatine eingebettet in einem Wasserbad. Während der Bestrahlung mit 10 ns langen Laserpulsen wurden Drucksignale mit einem Mach-Zehnder-Interferometer aufgenommen. Das Bild wurde aus insgesamt 36 000 Drucksignalen rekonstruiert. graphie sichtbar, und zwar besser als die etablierten Methoden wie Röntgenstrahlung und Ultraschall, und ohne die Notwendigkeit von Kontrastmitteln. Erste medizinische Studien an Menschen gibt es bereits [12]. Als weitere Anwendung ist Haut wegen der begrenzten Eindringtiefe des diffusen Lichts geradezu prädestiniert für die photoakustische Bildgebung. Die mikroskopische Technik ermöglicht hochaufgelöste Bilder von den kleinen Blutgefäßen nahe der Hautoberfläche [3]. Auch die Bestimmung der Sauerstoffsättigung in diesen Gefäßen ist möglich. Wegen des Absorptionskontrasts von Melanin ist die Untersuchung von gutartigen und bösartigen pigmentierten Läsionen eine weitere vielversprechende Anwendung. Bleibt noch die Frage der Sicherheit. Immerhin ist die Wechselwirkung zwischen Laserstrahlung und biologischem Gewebe zur Erzeugung von Schallwellen thermisch. Sie führt also zur Erwärmung der beobachteten Gewebeareale. Allerdings genügen schon einige Millikelvin Temperaturerhöhung, um eine gut messbare Schallwelle zu erzeugen. Diese Erwärmung ist ungefährlich. Photoakustische Bildgebung ist also sicher, zumal die verwendete Strahlung nicht ionisierend ist. www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 249 Zusammenfassung Die photoakustische Bildgebung kann in biologischem Gewebe Strukturen mit optischem Kontrast sichtbar machen. Sie sendet kurze Lichtpulse, meist aus Lasern, ins Gewebe und erzeugt dort Ultraschall. Mit diffus gestreutem Licht ist eine Tiefe bis zu wenigen Zentimetern zugänglich. Breitbandige Sensoren nehmen die Ultraschallsignale auf. Entweder direkt oder über eine tomographische Rekonstruktion werden diese dann in ein zwei- oder dreidimensionales Bild umgewandelt. Es macht Strukturen mit erhöhter optischer Absorption sichtbar, etwa Blutgefäße. Sogar Bilder der lokalen Sauerstoffsättigung im Blut sind möglich. Zukünftige Anwendungsgebiete werden bei der Früherkennung von Brustkrebs und in der Diagnose von Hautveränderungen erwartet. Stichworte Photoakustische Bildgebung, photoakustischer Effekt, photoakustische Mikroskopie, photoakustische Tomographie, Ultraschallsensor, Brustkrebs, Hautveränderung. Literatur [1] [2] [3] [4] 250 Phys. Unserer Zeit M. H. Xu and L. V. Wang, Rev. Sci. Instrum. 2006, 77, 041101. H. F. Zhang et al., Nat. Biotechnol. 2006, 24, 848. C. Favazza et al., J Biomed Opt 2011, 16, 016015. S. Hu et al., Optics Lett. 2011, 36, 1134. 5/2013 (44) www.phiuz.de [5] [6] [7] [8] [9] [10] K. Maslov et al., Opt. Lett. 2008, 33, 929. M. H. Xu, L. V. Wang, Phys Rev E. 2005, 71, 016706. B. Cox et al., J. Biomed. Opt. 2012, 17, 061202. C. Kim, C. Favazza, and L. V. Wang, Chem. Rev. 2010, 110, 2756. J. J. Niederhauser et al., IEEE Trans. Med. Imag. 2005, 24, 436. P. C. Beard, A. M. Hurrell, T. N. Mills, IEEE Trans. Ultrason., Ferroelect., Freq. Contr. 2000, 47, 256. [11] G. Paltauf et al., Appl. Opt. 2007, 46, 3352. [12] M. Heijblom et al., Opt. Express 2012, 20, 11582. Danksagung Der Autor dankt dem Österreichischen Forschungsfonds (FWF) für die Förderung des Projekts S10502 (Photoakustische Tomographie). Der Autor Günther Paltauf studierte Physik an der Universität Graz, wo er 1993 promovierte. Nach mehreren Jahren als Postdoc in Graz, Bern und Portland (Oregon) arbeitet er seit 2001 am Institut für Physik der Universität Graz als Ao. Univ. Prof. und forscht im Bereich photoakustische Bildgebung und LaserGewebe-Wechselwirkung. Anschrift Prof. Dr. Günther Paltauf, Universität Graz, Institut für Physik, Universitätsplatz 5, A-8010 Graz, Österreich. [email protected] © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim M AG A Z I N R A SA N T E PH YS I K | Das Splittern nach dem Schuss Rohe Eier sind, zwischen Daumen und Zeigefinger gehalten, sehr stabil. Das gilt auch für kugelförmige Christbaumkugeln. Mit solchen Feier tagsutensilien lassen sich interessante physikalische Experimente zur Inkompressibilität von Flüssigkeiten anstellen – und mit Hochgeschwindigkeitskameras studieren. Die Kompressibilität κ (der Kehrwert des sogenannten Kompressionsmoduls) ist eine Kenngröße von Fluiden, die die Volumenänderung ∆V im Vergleich zum ursprünglichen Volumen V bei Vorliegen einer Druckdifferenz ∆p beschreibt ∆V/V = – κ ∆p. (1) Bei gleichem Druckunterschied lassen sich Flüssigkeiten deutlich schlechter komprimieren als Gase. So wird beispielsweise ein ideales Gas bei einem Druckunterschied von 1000 Pa gegenüber Atmosphärendruck von 105 Pa immerhin eine Volumenänderung von 1 % erfahren. In diesem Fall beträgt die Kompressibilität (κ = 1/p) etwa 10–5 Pa–1. Bei Wasser, in der die Moleküle deutlich dichter liegen, beträgt die Kompressibilität nur 0,5 · 10–9 Pa–1. Dies führt zu einer relativen Volumenänderung bei ∆p = 1000 Pa von nur etwa 5 · 10–7. Man müsste schon einen äußeren Druck von über 107 Pa (100 Atmosphären) ausüben, um ebenfalls eine Volumenänderung von 1 % zu erreichen. Diese niedrige Kompressibilität führt bei Flüssigkeiten zu interessanten Phänomenen, die teilweise sehr schnell ablaufen [1]. Beginnen wir mit dem von Form und Sauberkeit des Experiments nicht optimalen Alltagsgegenstand eines rohen Eis. Schießt man mit einer Luftpistole und Geschossgeschwindigkeiten in der Größenordnung 100 m/s auf ein rohes Ei, so ist das Endergebnis wie erwartet: Es zerspritzt, der Inhalt verteilt sich bis in recht große Entfernungen. Bei diesem Experiment sollte man deshalb Videoaufnahmen durch eine Schutzscheibe aufnehmen. Ab- bildung 1 zeigt einige Momentaufnahmen des Experiments (Videoaufnahmen finden Sie auf www.phiuz.de, Special Features, Zusatzmaterial zu den Heften). Es fällt auf, dass die vom Projektil aus gesehene, rückwärtige Eischale schon vor Austritt der Kugel zerplatzt. Die einfachste Erklärung besagt, dass wegen der Inkompressibilität der Flüssigkeit das vom Projektil verdrängte Volumen im Ei zu einer Druckerhöhung führt, der die Schale nicht gewachsen ist. In einer genaueren Analyse müssen natürlich auch Trägheitseffekte der bewegten Flüssigkeit und die durch das Projektil verursachte Schockwelle im Ei berücksichtigt werden. Da Eier sich stark voneinander in Form und Schalendickenverteilung unterscheiden können, stellt jedes derartige Experiment ein Unikat dar. Besser ist es, die Physik mit etwas reproduzierbareren ähnlichen Systemen zu untersuchen. Hierfür bieten sich Christbaumkugeln aus Plastik an. Abbildung 2 zeigt drei Momentaufnahmen beim Schuss auf eine luftgefüllte Kugel aus einer Sequenz mit 8000 Bildern pro Sekunde. Sie gestattet es, die Geschwindigkeit des Projektils genau zu bestimmen. Die Längenskala ergibt sich aus dem Außendurchmesser der Kugel von 57 mm (Innendurchmesser 55 mm) sowie der bekannten Länge der auf dem Lauf befindlichen Zielvorrichtung von 30 mm. Die Kugel hatte folgende Maße: Masse = 0,54 g, Länge = 6,7 mm, Länge/Durchmesser ≈ 1,5, Volumen = 6 · 10–2 cm3. Vor dem Auftreffen auf die Hohlkugel betrug die Geschwindigkeit v = 84 m/s, nach dem Austritt © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Abb. 1 Das Projektil einer Luftpistole trifft ein rohes Ei: a) kurz vor dem Auftreffen; b) nach 0,333 ms, c) nach 1,333 ms. Das ausgetretene Projektil befindet sich im rot markierten Feld (Aufnahme mit 6000 Bildern/s, Integrationszeit 1/6000 s. etwa 78 m/s. Beim Aufprall wurde demnach etwa 1/7 der kinetischen Energie auf die Kugel übertragen. Aufgrund der hohen Geschwindigkeit wurde das Projektil im Bild länglich verzerrt auf ein Verhältnis von Länge zu Durchmesser von 3 bis 3,5. Genauere Angaben sind in diesem Beispiel wegen der begrenzten Auflösung von 512 × 512 Pixeln und dem gewählten Bildausschnitt nicht möglich. Die luftgefüllte Hohlkugel bietet kaum Widerstand für das Projektil, das durch den Aufprall im Wesentlichen Löcher in die Schale bricht, so dass meistens kleine Fragmente mit Flächen von einigen Quadratmillime- www.phiuz.de 5/2013 (44) Download Phys. Unserer Zeit 251 M AG A Z I N Abb. 2 Das Projektil (innerhalb der rot gekennzeichneten Ellipse) einer Luftpistole trifft eine hohle Christbaumkugel (Öffnung unten): a) vor dem Auftreffen, b) 1,5 ms später nach dem Austritt aus der Kugel. Erste Plastikfragmente der Kugel fliegen erst nach dem Austritt des Projektils weg (8000 Bilder/s, Integrationszeit 1/8000 s). Abb. 3 Das Projektil trifft eine wassergefüllte, verschlossene Christbaumkugel: a) vor dem Auftreffen, (b, c) nach dem Austritt aus der Kugel. Die Kugel explodiert bereits bevor das Projektil austritt (8000 Bilder/s, Integrationszeit 1/8000 s). tern bis maximal etwa ein Quadratzentimeter wegfliegen. Der Hauptteil der Kugel bleibt unbeschädigt auf der Halterung liegend zurück (Video auf www.phiuz.de). Abbildung 3 zeigt einen stark vergrößerten Bildausschnitt einer nun mit Wasser gefüllten Kugel, deren Öffnung mit einem Gummistopfen verschlossen war. Vor dem Auftreffen auf die Kugel hatte das Projektil eine Geschwindigkeit von 80 bis 84 m/s, nach dem Austritt sank sie auf etwa 47 m/s. Diese stärkere Abbremsung zeigte sich auch an der längeren Durchflugszeit durch die Kugel von etwa 1 ms im Vergleich zu 0,75 ms bei der luftgefüllten Kugel. Der wesentliche Unterschied ist jedoch die „Explosion“ der Christbaumkugel noch während das Projektil im Innern ist (Video auf www.phiuz.de). Da die luftgefüllte Kugel nicht zerplatzte, können mechanische Deformationswellen in der Hülle nicht für die Explosion verantwortlich sein. Insofern bleibt nur das Wasser als Ursache übrig. Üblich erklärt man das Verhalten nach (1) durch die sehr geringe Kompressibilität des Wassers bei Zimmertemperatur von κWasser ≈ 0,5 · 10–9 Pa–1. 252 Phys. Unserer Zeit 5/2013 (44) Bei einer äußeren Druckänderung ∆p ergeben sich Volumenänderungen ∆V. Ein Projektil hat ein Volumen von VProjektil ≈ 6 · 10–2 cm3, was ungefähr 1/1450 des Wasservolumens in der Kugel entspricht. Da anfangs nur sehr wenig Wasser heraus spritzt, muss in erster Näherung nach dem Kugeleintritt sowohl das Wasser als auch das Projektil in dasselbe verfügbare Innenvolumen der Kugel hineinpassen. Das geht nur, wenn das Wasser gemäß (1) entsprechend um ∆V = VProjektil komprimiert wird. Hierzu wäre aber ein Druckunterschied vom 14-fachen Atmosphärendruck nötig, der aufgrund ihrer mechanischen Eigenschaften von der dünnen Plastikhülle nicht aufgebracht werden kann. Folglich muss sie platzen. Über die eingangs erwähnten Trägheitseffekte der bewegten Flüssigkeit und die durch das Projektil verursachte Schockwelle gehen wir in der nächsten Folge auf den Grund. Literatur [1] M. Vollmer, K.-P. Möllmann, Phys. Ed. 2012, 47(6), 664. www.phiuz.de Michael Vollmer, Klaus-Peter Möllmann, FH Brandenburg L E H R E R FO R T B I L D U N G | Experiment und Vortrag Das DESY bietet im Rahmen eines MINT-Lehrerseminars vom 21. bis 22. November 2013 die Möglichkeit, mit einfachen Experimenten kosmische Teilchen zu messen, die dazugehörige Datenauswertung kennen zu lernen und den Einsatz im Unterricht zu diskutieren. Es entstehen keine Kosten, die Teilnehmerzahl ist auf 12 begrenzt. www.mint-ec.de/ veranstaltungen/lehrerfortbildungteilchenphysik-am-desy-zeuthen-beiberlin.html Die Fakultät für Physik und Astronomie der Universität Würzburg bietet Vorträge der Reihe Physik am Samstag an, die als Lehrerfortbildung anerkannt werden. In den kommenden Monaten stehen die Themen an: Am Ziel? – Die Elementarteilchenphysik nach der Entdeckung eines HiggsBosons (12.10.), Optische Mikroskopie mit atomarer Auflösung – Wunsch oder Wirklichkeit? (7.12.), Star Trek im Alltag – Eine Einführung in Quantenteleportation und -Information (8.2.2014). www.physik.uni-wuerzburg.de/aktuelles/oeffentlichkeit/ physik_am_samstag/ © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim M AG A Z I N S M A R T E PH YS I K | Smartphone als Geigerzähler Strahlenunfälle wie Tschernobyl und Fukushima sowie die Diskussion über die Endlagerung radioaktiver Stoffe machen das Thema zivilisatorische Radioaktivität allgegenwärtig. Smartphones und Tablet-PCs ermöglichen es, radioaktive Strahlung zu erfassen und anzuzeigen. Die App RadioactivityCounter ermöglicht es, die Geräte sowohl als Anzeigegerät für solche Strahlung als auch für Lehrzwecke in Schule und Universität zu verwenden. Das Messgerät für die radioaktive Strahlung in Smartphones ist der Kamerasensor. Dieser CCD- oder CMOS-Chip besteht aus mehreren Millionen Sensorzellen, welche die Bildpunkte (Pixel) der Fotos oder Videos bilden. Dabei ist jede Sensorzelle eine nur wenige Mikrometer kleine pn-Diode. Deren Halbleiterübergang ist strahlungsempfindlich und beim Eintreffen der radioaktiven Strahlung wird ein weißes Pixel erzeugt [1]. Der Kamerasensor kann somit von der Funktionsweise her mit einem Halbleiterdetektor verglichen werden. Um Smartphone-Kameras als Strahlendetektoren nutzen zu können, ist es zunächst nötig, die Kameralinse beispielsweise mit Gewebeklebeband, schwarzem Kartonstreifen oder Alufolie lichtdicht abzudecken (Abbildung 1). Damit kann kein einfallendes Licht das Erfassen von Strahlungspartikeln verfälschen [2]. Als nächstes wird eine geeignete App benötigt, die das Bild des Kamerasensors auswertet und Rückschlüsse auf die Strahlungsstärke erlaubt. Das hier vorgestellte Programm RadioactivityCounter ist sowohl für iOS als auch für Android basierte Smartphones erhältlich, wobei sich beide Versionen in einzelnen Elementen wie Startbildschirm, Kalibrierfunktion oder Export deutlich unterscheiden. Wir beziehen uns hier auf die Android-Version. Einen ersten Versuch kann man mit einem Glühstrumpf ausführen. Diese Netze werden beispielsweise zur Lichterzeugung in Gaslampen verwendet und sind wegen ihres Thoriumgehalts teils leicht radioaktiv. Man legt nun das Smartphone oder den Tablet-PC einfach auf den Glühstrumpf, wobei sich die verdeckte Kameralinse möglichst dicht an dem Objekt befinden sollte. Danach kann der Messvorgang durch Betätigen der Taste „start log“ der App gestartet werden. Nach Anlegen der Protokolldatei (Log-Datei) beginnt die eigentliche Messung. Wegen der relativ schwachen Aktivität ist eine Messdauer von fünf bis zehn Minuten nötig. Mit dem Samsung Galaxy Tab 2 7.0 erhielten wir bei einer Messdauer von zehn Minuten eine Zählrate von 33 min–1. Danach kann durch Betätigen der Taste „stop log“ die Protokollierung der Zählraten gestoppt werden. Dadurch wird jedoch nicht die eigentliche Messung unterbrochen. Die App erfasst weiterhin Impulse und rechnet sie in die dargestellte absolute Zählrate mit ein (Abbildungen 2 und 3). Aus diesem Grund sollte die Protokollierung durch die Log-Datei möglichst zum Beginn einer neuen Minute gestoppt und gegebenenfalls die absolute Zählrate mit der Gesamtmessdauer direkt abgelesen und in einer Tabelle festgehalten werden. Zum Vergleich sollte man dann die Nullrate in Abwesenheit jeglicher radioaktiver Quellen messen. Dazu müssen zunächst mithilfe der Schaltfläche „clear“ die alten Messwerte aus dem Zwischenspeicher gelöscht werden, bevor man wie oben beschrieben eine neue Messung startet. Nach einer Messzeit von etwa zehn Minuten wird in unserem Beispiel eine Zählrate von 13 min–1 angezeigt. Für den Glühstrumpf © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim Abb. 1 Abdeckstreifen (links), rechts aufgeklebt auf die Kameralinse eines Samsung Galaxy Tablet 2 7.0. Abb. 2 Benutzeroberfläche des RadioactivityCounter (Android): Hauptmenü (oben) und erweitertes Menu (unten) (ergänzte Ziffern zur Erläuterung). ergibt sich damit eine effektive Aktivität von 20 min–1. Zur genaueren Untersuchung der jeweils aufgenommenen Zählwerte können die Log-Dateien auf einen PC übertragen und beispielsweise mit einem Tabellenkalkulationsprogramm ausgelesen werden (Statistik-Button, c in Abbildung 2). Somit können Smartphones qualitativ zum Nachweis ionisierender Strahlung verwendet werden [3]. www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 253 M AG A Z I N Sr-90) mit zufriedenstellender Genauigkeit experimentell untersuchen [4, 5]. Damit eignen sich solche Geräte durchaus für Lehr- und Lernzwecke in Schule und Hochschule [4, 5]. Bedienelemente für Android Abb. 3 Das Settings-Menü. Allerdings eignen sie sich unter anderem wegen der geringeren Sensitivität nicht für quantitative Aussagen, beispielsweise zur Bestimmung der Dosisleistung insbesondere im schwach strahlenden Bereich (Dosisleistung unter 1–10 µGy/h) und im Bereich alltäglicher Umgebungsstrahlung [2]. Trotz der Einschränkung erlauben die Geräte aber die experimentelle Verifizierung physikalischer Gesetzmäßigkeiten radioaktiver Strahlung. So lassen sich das Absorptionsgesetz von Gamma- und Betastrahlung, die Halbwertszeit radioaktiver Präparate und die Ablenkung von Betastrahlung in Magnetfeldern mit definierten Experimentierbedingungen und handelsüblichen radioaktiven Präparaten von Lehrmittelherstellern (beispielsweise Cs-137 oder Abb. 4 Menü zur Gerätekalibrierung. 254 Phys. Unserer Zeit 5/2013 (44) Die App RadioactivityCounter zählt innerhalb einer beliebigen Zeitspanne für jede einzelne Minute die Ereignisse auf dem Kamerasensor und speichert diese Ereigniszahl jeweils in einem Zeit-Ereigniszahl-Balkendiagramm (2 in Abbildung 2). Die Zeitachse ist dabei in diskrete Minutenschritte unterteilt. Über die so gewonnenen Daten wird die zu einer für die bisherige Zeitdauer zutreffende Zählrate gemittelt. Bei der ersten Ausführung der App ist zunächst eine Kalibrierung des Kamerasensors durch Betätigen des Buttons „set noise“ im erweiterten Menü nötig (siehe unten). Dabei erkennt das Programm die sensoreigenen Rauschsignale (noise) automatisch und blendet diese in weiteren Messungen als Offset aus. Nach der Kalibrierung ist RadioactivityCounter zur Messung einsatzbereit. Hauptmenü Die Schaltfläche „start/stop log“ (1 in Abbildung 2) startet beziehungsweise stoppt die Protokollierung der Zählraten, „clear“ löscht vorher noch vorhandene Daten aus dem Zwischenspeicher, so dass eine neue Messreihe aufgenommen werden kann. Die Schaltfläche „spekt/graph“ schaltet zwischen den Anzeigen Spektrum (Intensitäts-HäufigkeitsDiagramm) und Graph (Zeit-Zählwert-Diagramm) hin und her (2 in Abbildung 2). Die Anzeige 3 in Abbildung 2 stellt die detektierten Ereignisse, die während der gesamten Messdauer erfasst wurden, auf dem zugehörigen Ort des Kamerachips in Form weißer Pixel grafisch dar. Dort werden außerdem die gesamte Messdauer und der darüber berechnete Mittelwert der Zählrate pro Minute angezeigt. Sind Kalibrierwerte zur Zuordnung von Zählrate und Dosisleistung in den erweiterten Einstel- www.phiuz.de lungen vorhanden, so wird hier ebenfalls ein gemittelter Wert für die Dosisleistung angezeigt. Anzeige 5 in Abbildung 2 stellt im Gegensatz dazu die Mittelwerte über einen festen Zeitbereich dar, der sich im erweiterten Menü definieren lässt. Eine zusätzliche Funktion dieser Anzeige ist die grafische Darstellung bei sich ändernden Werten für Zählrate und Dosisleistung (rot: Erhöhung; grün: Reduktion; gelb: gleich bleibend). Darunter findet sich wiederum eine Anzeige (6 in Abbildung 2) zu der verbleibenden Zeit der laufenden Minute und der in dieser Minute bisher erfassten Anzahl der Ereignisse. Anzeige 7 in Abbildung 2 dient dazu, wichtige Werte zum Gerät wie Bezeichnung, Framerate und Temperatur und zu verschiedenen Einstellungen wie NoiseWert usw. (Abbildung 3) wiederzugeben. Erweitertes Menü Durch Betätigung des Android-Menübuttons eröffnen sich weitere Einstellmöglichkeiten. Zu den wichtigsten Bedienelementen dieses erweiterten Menüs gehört der Button „settings“ (a in Abbildung 2), der die Anzeige der Grundeinstellungen aufruft (Abbildung 3). Der Regelschalter „interval“ legt das Zeitintervall zur Mittelwertbildung der Zählrate in Anzeige 5 der Abbildung 2 fest. Das Feld „noise“ dient zur Anpassung des Rauschlevels. Darin stellt ein ganzzahliger Wert den Level des integrierten Rauschunterdrückungs-Algorithmus dar: Ein kleiner Wert steht somit gleichermaßen für eine hohe Sensitivität und für wenige durch den Kamerachip verursachte und zu unterdrückende Rauschsignale. Eine Erhöhung dieses Wertes um eine Stufe bedeutet für die meisten Geräte gleichzeitig eine Verminderung der Empfindlichkeit um etwa 10 %, da ankommende Strahlung ebenfalls als Kamerarauschen aufgefasst und unterdrückt wird [2]. Die Noise-Sensitivität wird bei der ersten Benutzung der Software automatisch erfasst und festgelegt. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim M AG A Z I N Sie kann jedoch innerhalb des Settings-Menüs auch so angepasst werden, dass für den gewöhnlichen Nulleffekt eine sinnvolle Anzahl an Ereignissen pro Minute erfasst werden, die sich mit einem Vergleichsmessgerät ermitteln lassen (gewöhnlich 10 bis 20 Impulse pro Minute). Die Einstellungen für „expose“ und „border“ in Abbildung 3 sind bereits voreingestellt [2] und kommen nur zum Einsatz, wenn die Empfindlichkeit auf Kosten höherer Rauschsignale erhöht oder das Rauschen an den Rändern des Kamerasensors vermindert werden soll. Die Hintergrund-Strahlendosisleistung „backgrnd“ kann ebenfalls in 10 nSv/h-Schritten festgelegt werden und ist in diesem Fall auf einen Wert von 90 nSv/h gesetzt (Abbildung 3). Weitere Einstellmöglichkeiten sind die Benutzung der vorderen oder rückseitigen Kamera (Frontoder Back-Cam), die Einspielung eines Alarm- oder Klicktons oder die Speicherung der per GPS erfassten Geodaten in Protokolldateien (LogDateien). Darin werden die gesammelten Daten tabellarisch gespeichert, was beispielsweise für die Erfassung und Dokumentation der Strahlenbelastung an unterschiedlichen Orten nützlich ist. Der Button „set noise“ (b in Abbildung 2) dient zur automati- BÜCHER | Das lebendige Theorem, Cédric Villani, 304 S., S. Fischer, Frankfurt/M., geb. 19,99 1. ISBN: 978-3-10-086007-1. Cédric Villani feiert in diesem Jahr seinen 40. Geburtstag. Das ist sein Glück, denn so konnte er 2010 die Fields-Medaille bekommen, den „Nobelpreis“ der Mathematik, der schen Erfassung und Festlegung des Rauschlevels des Kamerasensors. Dieser muss bei der ersten Inbetriebnahme der App betätigt werden, um unverfälschte Messwerte zu erfassen. Beim Betätigen der Schaltfläche „statistik“ (c in Abbildung 2) gelangt man zu einer Auflistung der bereits aufgezeichneten Log-Dateien, die mit der programmeigenen Betrachterfunktion erneut angezeigt werden können. Für die Darstellung der Daten gibt es verschiedene Möglichkeiten, zum Beispiel als Balken- oder Liniendiagramm. Über den Menübutton des Smartphones können die einzelnen Messreihen schließlich als CSVDateien via Email versendet oder auf das interne Speichermedium geschrieben werden. Von dort aus lassen sich die Daten dann beispielsweise per USB-Verbindung oder Dropbox exportieren. Schließlich kann man das Smartphone mit „adjust“ (d in Abbildung 2) kalibrieren. Damit werden der App einander entsprechende Fixwerte für Zählrate und Dosisleistung vorgegeben (Abbildung 4). Anhand dieser Fixwerte wird dann eine interne Kennlinie für den Zusammenhang von Zählrate und Dosisleistung angepasst, womit im Hauptmenü wiederum für eine bestimmte gemittelte Zählrate die dazugehörige nur exzellenten Forschern unter 40 Jahren vorbehalten ist. Villani erhielt sie unter anderem für das Theorem, um dessen Beweis sich das Buch dreht: Eine Beschreibung des Ringens um die nichtlinearen Lösungen der Wlassow-Poisson-Landau-Gleichung, des Standardmodells der klassischen Plasmaphysik. Erstaunliche Phänomene wie „Echos“, die nach der Anregung von Plasmen auftreten können, erklären sich durch die Arbeit von Villani und seiner Mitstreiter wie von selbst. Aber schafft er das auch mit der Mathematik in seinem Buch? Klare Antwort: Nein, aber das will er auch © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim RadioactivityCounter Kategorie: Messwerterfassung Fachgebiet: Kernphysik Plattform: Android Sensor: Kamera (CCD-/CMOS-Chip) Speichermöglichkeit: ja Exportmöglichkeit: ja Kosten: EUR 3,49 (iOS-Version: EUR 4,49) Bedienung: gut Sprache: Englisch Link (Android): play.google.com/store/apps/details?id=com.rdklein. radioactivity&hl=de Link (iOS): itunes.apple.com/de/app/radioactivitycounter/ id464004677?mt=8 Dosisleistung errechnet wird. Dabei ist bei Schwachstrahlern (unter 1–10 µGy/h) davon abzuraten, die mit der App bestimmte Aktivität in (Äquivalent-)Dosisleistung umzurechnen [2]. Literatur [1] www.opengeiger.de/RadCountRDKlein.pdf [2] www.hotray-info.de/html/radioactivity. html [3] T. Kaireit et al., Fortschr Röntgenstr 2013, 185(6), 558. [4] J. Kuhn et al., Eur. J. Phys. (einger.). [5] J. Kuhn et al., Phys. Teach. (einger.). Jochen Kuhn, Jan Frübis, TU Kaiserslauten; Thomas Wilhelm, Uni Frankfurt; Stephan Lück, Uni Würzburg nicht. „Das Buch versetzt den Leser in die Rolle einer kleinen Maus, die auf der Schulter des Mathematikers sitzt und ihm zuschaut“, behauptet Villani gerne in Interviews. Sicher ist: Die Maus wird größere Teile des Buches überblättern, weil sie keinen TeX-Quellcode lesen kann. Villanis Buch ist nämlich eine Collage aus Email-Fetzen (regelmäßig auch in LaTeX), Auszügen aus Aufsätzen, Gedanken- und Gesprächsprotokollen, Liedertexten, Gedichten. Dazwischen streut er sparsam ein paar Anekdoten und einfache Erklärungen von ein bis zwei Seiten Länge. Phasenweise liest sich das www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 255 M AG A Z I N Buch wie der Bewusstseinsstrom eines Spitzenmathematikers, der sich gerne in Szene setzt (ohne allerdings je arrogant zu wirken): „Anscheinend bin ich ein Katalysator!“ „Und Musik bitte, oder ich sterbe!“ Dazu passt, dass man Villani in der Öffentlichkeit nur in Anzug und mit einer seiner vielen faustgroßen Spinnenbroschen am Revers kennt. Dennoch ist das Buch keine Autobiographie; sein privates Leben als Familienvater zweier Kinder bleibt vage im Hintergrund. Ausführlicher wird es bei der Schilderung von Villanis musikalischen Vorlieben. Das Buch ist auch kein populärwissenschaftliches Werk, das Mathematik erklären will. Villani schreibt eher Literatur, wobei er sich stilistisch in der Vergangenheit bedient: Er kreuzt Mathematik-Poesie mit dem Stream of Consciousness von James Joyce und dem Dandytum von Oscar Wilde. Vermutlich ist es diese „postmoderne Erzählweise“, die bei Feuilletonisten Hochgefühle auslöst. Wirklich schätzen können dieses Buch aber wohl nur Leser, die fortgeschrittene Ahnung von Mathematik, am Besten von Analysis, haben – für sie ist es jedoch ein schräger, neuartiger Genuss. Andreas Loos, HU Berlin Licht. Die faszinierende Geschichte eines Phänomens, Rolf Heilmann, 256 S., geb. 19,99 1. Herbig-Verlag, München 2013. ISBN: 3-776-62711-5. „Lohnt es sich, ein Buch zu lesen, das ausschließlich vom Licht handelt?“ Mit dieser Frage beginnt der Autor Rolf Heilmann, Professor der Physik in München, seine spannende und informative Reise durch die Geschichte der Physik des Lichts. Das Buch liefert dabei einen umfassenden Überblick über verschiedene physikalische Entdeckungen, die im Zusammenhang mit dem Phänomen Licht stehen. 256 Phys. Unserer Zeit 5/2013 (44) Ausgehend von den griechischen Philosophen zieht sich das Thema Licht wie ein roter Faden durch sämtliche Epochen der Geschichte. Dabei liegt der Fokus auf den technischen Entwicklungen: von den Instrumenten der Strahlenoptik, wie Linsen, Teleskopen und Brillen, bis hin zu modernen Halbleitersensoren, Leuchtdioden und der wegweisenden Entwicklung des Lasers im 20. Jahrhundert. Dabei zeigt der Autor auch auf, wie Errungenschaften in den Bereichen der Photonik und Optik andere physikalische Forschungsfelder immer wieder aufs Neue grundlegend verändert haben. Denn viele neue Erkenntnisse in der Kosmologie, Festkörperphysik oder Atomphysik wären ohne ein tiefes Verständnis des Lichts nicht möglich gewesen. Die Erzählung endet mit der modernen Quantenoptik und den damit verbundenen Möglichkeiten, beispielsweise der hochpräzisen Zeitmessung oder der Entwicklung eines Quantencomputers. Immer wieder widmet sich der Autor aber auch der Frage über das Wesen des Lichts. Die jeweiligen physikalischen Neuerungen in einer Epoche motivierten stets die Entwicklung einer neuen Theorie, bis hin zur vorläufigen Klärung dieser Diskussion im 20. Jahrhundert mit dem Aufkommen der Quantenmechanik und der Entdeckung des WelleTeilchen-Dualismus. Rolf Heilmann gelingt der Spagat zwischen historischer und wissenschaftlicher Korrektheit einerseits und verständlichen und schlüssigen Erklärungen andererseits durchweg sehr gut. Dabei werden auch immer wieder interessante geschichtliche Hintergründe und Anekdoten eingestreut. Die Beantwortung der anfänglich gestellten Frage gestaltet sich somit relativ einfach: Dieser spannende Ausflug in die Geschichte des Lichts lohnt sich sowohl für Physiker als auch andere Physik-Interessierte. www.phiuz.de Barbara Englert, MPI für Quantenoptik Strom – die Gigawattrevolution, C. Buchal, P. Wittenberg, D. Oesterwind, 228 S., Abb., brosch. 15,90 (für Schulen 7,– 1), MIC Agentur & Verlag, Köln 2013. ISBN: 978-3-94265817-1 Nachdem der Physiker Christoph Buchal vom Forschungszentrum Jülich vor einigen Jahren mit dem Buch „Energie – Kernthema der Zukunft“ ein veritables Werk mit vielen belastbaren Zahlen und Informationen vorgelegt hat, ist nun zusammen mit zwei Koautoren ein neues Buch entstanden, das auf die Bedürfnisse der bei weitem nicht immer sachlich geführten Diskussion zur Energiewende zugeschnitten ist. Die Autoren leisten keine Lobbyarbeit für irgendeine Partei, die Wirtschaft oder Umweltverbände. Das äußert sich zum Beispiel darin, dass sie Kern- und Fusionskraftwerke gar nicht behandeln. Während erstere in Deutschland keine Option mehr sind, lässt sich das Potenzial der Fusion bislang nicht abschätzen. Stattdessen schildern Buchal & Co technische und wirtschaftliche Zusammenhänge und bieten sauber recherchierte Zahlen. Für Lehrer und Schüler, aber auch für Physiker, dürften die Kapitel über die Grundlagen interessant sein. Oder wissen Sie, was Polarisationsverluste und kapazitive Blindströme mit dem Verlegen von Erdkabeln und dem Einsatz von HGÜ zu tun haben? Auch die Reise in die Anfänge der Stromerzeugung dürfte vielen Lesern Vergnügen bereiten. Selbstverständlich gehen die Autoren auf die aktuelle Problematik der Netze und fehlenden Stromspeicher ein. Ebenfalls viel Neues dürften die Ausführungen über den Stromhandel an den Börsen bieten. Besonders erfreulich ist, dass das Buch für Schulen gesponsert wird und bei www.mic-schulshop.de für 7,– Euro bestellt werden kann. TB © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim M AG A Z I N H I S TO R I S C H E S R Ä T S E L | „Wenige Freunde und wenig Vermögen“ Astronomie, Medizin, Philosophie, Mathematik – kaum ein wissenschaftliches Fach, auf dem er nicht gearbeitet hat. Und wer genau hinsieht, kann sogar heute noch Spuren seines Erfindungsgeistes finden: Man muss sich nur hinknieen, dann kann man unter vielen Lastwagen die typischen Getriebewellen mit dem „Knick“ entdecken. Sie tragen seinen Namen. Er hat es nicht gerade leicht: Seine Mutter – eine kleine, dicke, jähzornige Frau – will nach der harten Geburt nichts von ihm wissen. Die Pest rafft seine Amme hin, als er einen Monat alt ist; für ihn scheinen sich die Erreger nicht interessiert zu haben, jedenfalls trägt er nur einige Narben im Gesicht davon. Niemand scheint ihn zu mögen. „Kurz gesagt: Ich bin ein Mensch ohne körperliche Kraft, habe wenige Freunde und wenig Vermögen, aber viele Feinde, von denen ich die meisten weder mit Namen noch vom Gesicht her kenne. Ich habe keinen gesunden Menschenverstand und auch kein gutes Gedächtnis, aber eine ganz gute Vorausahnung“, schreibt er in seiner Autobiographie. Das nützt ihm bei seinem Hauptjob: Nach einem Medizinstudium wird er zum gefragten Arzt, der die Größen seiner Zeit kurieren darf. Allerdings wählt er seine Patienten genau aus und lehnt eine ganze Reihe von hochrangigen Angeboten als Leibarzt ab, was wohl auch seine Erfolgsquote erhöht. Wenn die Medizin nicht mehr nützt, greift er zu Astronomie und Astrologie, worin er sich ziemlich gut auskennt, wie er in einer ganzen Reihe von Büchern dokumentiert. Er untersucht die Bewegung der Sonne und der anderen Himmelskörper, räumt mit sieben Irrtümern über den Saturn und andere Planeten auf (wobei er reichlich astrologische Spekulationen mit astronomischem Wissen mixt) und entwickelt Theorien über Kometen, unter anderem in seinem einflussreichen Werk „De subtilitate“. Andreas Loos, FU Berlin Er hat auch einige technische Geräte entwickelt, beispielsweise ein Kombinationsschloss, das so ähnlich funktioniert wie die heutigen Safeschlösser. Seinen Namen verewigt hat er mit der eingangs erwähnten mechanischen Aufhängung. Zwar gibt es die schon vor ihm, doch der Einbau in einer Kutsche von Kaiser Karl V. macht sie unsterblich. Gleichzeitig beschäftigt er sich mit Elektrizität und Magnetismus sowie der Konstruktion von Buchdruckpressen. Aus den finanziellen Nöten, die ihn immer wieder plagen, versucht er sich übrigens mit regelmäßigem Glücksspiel zu befreien. Um die Chancen zu berechnen, entwickelt er erste Ansätze der Wahrscheinlichkeitsrechnung. (Vermutlich funktionierten seine TREFFPUNKT TV Strategien aber nur unzureichend, bedenkt man seine zeitweise Armut.) Und schließlich entwickelt er eine Formel zur Berechnung der Wurzeln von Gleichungen vierten Grades, die heute nach ihm benannt ist. Wer war der Universalgelehrte? Schreiben Sie die Lösung auf eine Postkarte an: Physik in unserer Zeit, Wiley-VCH, Boschstraße 12, 69469 Weinheim, oder per Email an: [email protected]. Absender nicht vergessen! Einsendeschluss ist der 15.10.2013. Der Rechtsweg ist ausgeschlossen. Wir verlosen drei Exemplare des Buches Quantenphysik für Dummies von Steven Holzner. Lösung aus Heft 4/2013. Die Expertin in Molekülspektroskopie war Hertha Sponer (1.9.1895 bis 27.2.1968). Gewinner aus Heft 3/2013 T. Huyeng, Bassenheim, T. Rosenstock, Bochum, W. Thimm, Karlsruhe. | 23.9., 22.00 Uhr, BR: Reiner Zufall? Die Entstehung des Kosmos. In der Sendereihe Faszination Wissen beschäftigt sich der Astrophysiker Adi Pauldrach mit der Frage der Anfangsbedingungen im Urknall. 19.9., 6.35 Uhr, SWR: AndréMarie Ampère und der Elektromagnetismus. Doku aus der Reihe Meilensteine der Naturwissenschaft und Technik über die Entdeckung des Zusammenhangs zwischen Magnetismus und Elektrizität. 30.9., 4.05 Uhr, Phoenix: Die Hunde-Kosmonauten von Baikonur. Film über den Einsatz von Hunden in der sowjetischen Raumfahrt der 1950er Jahre. 3.10., 0.50 Uhr, Phoenix: Die rote Bombe. Dreiteiler über die Entwicklung der Atombombe in der UdSSR, bei der Andrej Sacharow eine entscheidende Rolle spielte. 8.10., 21.00 Uhr, WDR: Auf Teilchenjagd beim CERN. Ranga Yogeshwar zeigt in Quarks & Co, wie das Beschleunigerexperiment funktioniert, spricht mit den Menschen, die hier arbeiten, und unterhält sich mit dem Teilchenphysiker Peter Higgs, dem vielleicht an diesem Tag der Physik-Nobelpreis verliehen wurde. 30.9., 4.50 Uhr, Phoenix: Die Entdeckung des Universums. Film über die größten Entdeckungen der Astronomie von den Aufzeichnungen der Babylonier bis zum heutigen 19.9., 6.50 Uhr, SWR: Blaise 29.10., 21.00 Uhr, WDR: 20 Jahre Blick in die Sterne. Pascal und der Druck. Doku aus Quarks & Co. Ranga Yogeshwar derselben Reihe über Pascal, der unpräsentiert die Highlights seiner ter anderem durch Messung des Luft- 2.10., 5.35 Uhr, BR: Grenzen des erfolgreichen Sendung. drucks und seiner Schwankungen Verstehens. Diskussion zwischen die Wettervorhersage mit Hilfe eines Harald Lesch und dem katholischen Barometers erfand. Priester Thomas Schwartz. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2013 (44) Phys. Unserer Zeit 257 M AG A Z I N M O LG A S T RO N O M I E | Die inverse Mayo Mayonnaisen sind sogenannte Öl-in-Wasser-Emulsionen. Wässrige Flüssigkeiten sind die kontinuierliche, Öl die diskontinuierliche Phase. Aber auch inverse Emulsionen mit genau umgekehrten Phasen, wie eine Honig-in-Olivenöl-Creme, haben ihren Reiz. Der Schlüssel zum richtigen Emulgator ist deren Balance zwischen der Wasser- und Fettlöslichkeit. Mayonnaisen sind standfeste Cremes, gemixt aus Wasser, dem Emulgator Lecithin, Salz, Säure (Zitronen-, Limettensaft oder Essige) und reichlich Öl (Physik in unserer Zeit 2004, 35(5), 250); versetzt mit Gewürzen nach Lust und Laune. Das Geheimnis der hohen Stabilität verbirgt sich hinter molekularen Eigenschaften des Emulgators. Phospholipide, wie Lecithin, besitzen einen stark polaren Kopf, der für eine gute Wasserlöslichkeit des Emulgators verantwortlich Abb. Lecithin sowie Mono- und Diglyceride, rot: lipophil, blau: hydrophil. Honig wird von dem Emulgator in Tröpfchen eingeschlossen (stark vereinfacht dargestellt). ist. Lecithin lässt sich daher gut in Wasser dispergieren. Für „inverse Mayonnaisen“ werden aber Emulgatoren benötigt, deren Öllöslichkeit überwiegt. Die Wahl fällt auf das Gemisch der Monound Diglyceride, die aus „Fettmolekülen“ (Triacylglyceride) entstehen, wenn enzymatisch ein oder zwei Fettsäuren abgespalten werden. Der wasserslösliche Kopf besteht aus einer beziehungsweise zwei schwach polaren OH-Gruppen (Hydroxylgruppen) des Glycerins, die Öllöslichkeit der verbleibenden Fettsäuren überwiegt. Mono-und Diglyceride können bei höheren Temperaturen im Öl gelöst werden und bilden darin je nach Konzentration kugel- oder wurmförmige Mizellen: Die hydrophilen Köpfchen werden durch die ins Öl ragenden Fettsäuren in die Mitte gepackt, um die Freie Energie zu minimieren. Die Löslichkeit von nicht ionischen, also elektrisch neutralen Emulgatoren wird durch verschiedene Faktoren bestimmt. Die Polarität PH YS I K I M B I L D der Kopfgruppe bestimmt die Wasserlöslichkeit, aber auch die Länge der Fettsäuren. Sind die Fettsäuren kurz, so ist die Wasserlöslichkeit höher. Die Fettlöslichkeit wird hingegen umso besser, je länger die Fettsäuren der Emulgatoren sind und je weniger polar und räumlich ausgedehnt die hydrophile Kopfgruppe sind. Eine genaue Vorhersage des thermodynamischen Verhaltens von Emulgatoren ist daher nur unter Berücksichtigung molekularer und chemischer Details zu treffen. Ein kulinarisches Beispiel für eine „inverse Emulsion“ ist eine Mayo aus Olivenöl, Honig sowie Mono- und Diglyceriden. Dazu werden 100 ml Olivenöl auf 60 °C erwärmt und etwa 2 g Emulgator darin gelöst. Unter tropfenweiser Zugabe von 40 g Honig und gleichzeitigem Abkühlen und Rühren bildet sich eine standfeste Emulsion: Zucker und Wasser des Honigs werden von dem Emulgator über Wasserstoffbrückenbindungen eingeschlossen. Serviert in kleinen Tropfen aus Spritzfläschchen machen sich die süß-bitteren und fruchtigen Noten und die ölig cremige Textur bemerkbar, was sie beispielsweise neben hellem Fleisch auszeichnet. Bezugsquelle www.gourmantis.de Thomas Vilgis, MPI für Polymerforschung, Mainz | Im Raum der Stille Die Übertragungsantennen moderner Satelliten reagieren empfindlich auf Störsignale, die zum Beispiel von Instrumenten im Innern des Satelliten selbst kommen können. Deshalb müssen sie vor dem Start eingehend unter kontrollierten Bedingungen getestet werden. Dies geschieht in der Compact Payload Test Range (CPTR) des Weltraumforschungs- und Technologiezentrums ESTEC der Europäischen Weltraumorganisation in Holland. Die CPTR ist ein großer Faradayscher Käfig, der die zu testende Antenne gegen äußere elektromagnetische Felder abschirmt. Gleichzeitig werden im Innern kontrolliert Signale erzeugt, wie sie im späteren Weltraumbetrieb zu erwarten sind. In der neuen CPTR können bis zu acht Meter große Antennen im Frequenzbereich von 0,4 bis 50 GHz getestet werden (www.esa.int/Our_Activities/Technology/Zone_of_silence). 258 Phys. Unserer Zeit 5/2013 (44) www.phiuz.de © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim RÜCKBLICK RÜCKBLICK | Heft 3/2013 Nichtlineare Optik – ein Dauerbrenner Editorial Der Mond ist aufgegangen Planetenforschung Schillernde Spinnennetze Spielwiese Laserlineal für den Kosmos Astronomie Optische Wirbel Optik Das Ohr trinkt mit Physikdidaktik Heft 4/2013 Bohrsches Atommodell damals und heute Editorial Die Geburt der modernen Atomtheorie Physikgeschichte Die dunkle Seite der Galaxienentwicklung Astrophysik Neues aus der zweiten Familie Teilchenphysik Luftiger Wohlklang Physik und Musik Stehaufmännchen, Kolumbus-Eier und ein Gömböc Spielwiese Das Meer-Ei Erneuerbare Energie Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen und dgl. in dieser Zeitschrift berechtigt nicht zu der Annahme, dass solche Namen ohne weiteres von jedermann benutzt werden dürfen. Vielmehr handelt es sich häufig um gesetzlich geschützte eingetragene Warenzeichen, auch wenn sie nicht eigens als solche gekennzeichnet sind. – Alle Rechte vorbehalten, insbesondere die der Übersetzung in fremde Sprachen. Kein Teil dieser Zeitschrift darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form – durch Photokopie, Mikrofilm oder irgendein anderes Verfahren – reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen verwendbare Sprache übertragen oder übersetzt werden. Nur für den persönlichen und sonstigen eigenen Gebrauch dürfen von einzelnen Beiträgen oder Teilen von ihnen einzelne Vervielfältigungsstücke hergestellt werden. Der Inhalt dieses Heftes wurde sorgfältig erarbeitet. Dennoch übernehmen Autoren, Herausgeber, Redaktion und Verlag für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie für eventuelle Druckfehler keine Haftung. IM NÄCHSTEN HEFT | VO R SC H AU | Die Entdeckung des Higgs-Bosons Nach der Auswertung weiterer Daten des LHC gibt es kaum noch Zweifel an der Entdeckung des lang gesuchten Higgs-Bosons. Wichtige Eigenschaften dieses Teilchens, wie Masse, Spin oder die Kopplungsstärke an Fermionen und Bosonen, sind ermittelt und das Standardmodell auf seine Konsistenz getestet worden. Wie die Meeresspiegel steigen Eine Folge des Klimawandels ist der Anstieg der Meeresspiegel, der an verschiedenen Orten auf der Erde sehr unterschiedlich ausgeprägt sein kann. Für eine präzise Erfassung der Höhe des Meeresspiegels sorgen ozeanographische Satelliten. Dazu gehören seit über zehn Jahren die Jason-Missionen. Die Surfer im Erdschwerefeld Mit den Satelliten GRACE und GOCE können erstmals das Schwerefeld der Erde und seine zeitlichen Variationen mit hoher Präzision vermessen werden. Daraus lassen sich viele klimabedingte Prozesse wie das Abschmelzen des Eises der großen Gletschersysteme sowie Veränderungen im kontinentalen Wasserhaushalt oder in den Meeresströmungen ermitteln. Erhellendes über den Dunkelstrom PHIUZ 6/2013 erscheint Mitte November Physik in unserer Zeit finden Sie im Internet unter http://www.phiuz.de Zugriff auf Physik in unserer Zeit vom Schreibtisch aus: Wiley Online Library bietet Vollpreis-Abonnenten Zugang zu den Volltexten sowie zu Inhaltsverzeichnissen und Abstracts von über 300 anderen Zeitschriften aus dem Wiley-Programm. Sichern Sie Ihren Zugriff – wenden Sie sich an Ihre Bibliothek. Solarzellen aus kristallinen Siliziumwafern stecken heute in 88 % aller weltweit produzierten Solarmodule. Fast 60 % davon sind die günstigeren multikristallinen Silizium-Solarzellen, deren Wirkungsgrad ein bis zwei Prozent schlechter als beim einkristallinen Material ist. Die Ursachen sind erst jetzt weitgehend verstanden. Stimmiges Klavier Nur eine gekonnt unreine Stimmung sorgt bei Tasteninstrumenten für einen harmonischen Gesamtklang. © 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim www.phiuz.de 5/2013 (44) | Phys. Unserer Zeit | 259 Werbung