Präambel zu den Lösungen der "65 medizinbezogenen Fragen" Die auf den folgenden Seiten dargelegten Kurzfassungen zu den "65 medizinbezogenen Fragen" für Mediziner wollen und sollen eine Hilfe für die Studierenden der Medizin an der Universität Leipzig bei der Vorbereitung auf das theoretische Abschlußtestat im Fach Physik sein. Diese Antworten entsprechen lediglich einer MINIMALANFORDERUNG , d.h. diese Grundlagen müssen in jedem Fall beherrscht werden und die zugrunde liegenden physikalischen Gesetzmäßigkeiten verstanden worden sein. ZUSÄTZ LICHE FRAGEN (z.B. nach physikalischen Gesetzen, Einheiten, Ableitungen usw.) sind jederzeit möglich und sollten auch erwartet werden!!! Diese Sammlung kann insbesondere nicht • • • • den Besuch der Vorlesung bzw. der Übungen ersetzen die Auseinandersetzung mit physikalischen Prinzipien umgehen helfen mathematisches Handwerkszeug vermitteln als starres Schema verstanden werden. Vor dem Auswendiglernen der hier gegebenen Fakten ohne weitere Beschäftigung mit den zugrunde liegenden Formeln und Gesetzen muß dringendst abgeraten werden! Am Ende jeder Seite wird auf das Skript zur Vorlesung verwiesen, in dem die physikalischen Zusammenhänge ausführlicher dargestellt werden. Viel Erfolg bei der Vorbereitung und bei der Prüfung! Prof. Dr. Klaus Arnold Frage 1: Welche Kräfte wirken auf rote Blutzellen bei der Blutsenkung und wovon hängt die Sinkgeschwindigkeit ab? Wie bei vielen Prozessen wirken auch hier mehrere Kräfte, die sich - damit sich eine konstante Sinkgeschwindigkeit ergibt - gegenseitig kompensieren müssen, d.h. a = 0 ⇒ F = 0: Nach unten wirkt (↓): Gewichtskraft (antreibende Kraft!) Nach oben wirken (↑): Auftriebskraft und Reibungskraft a) Gewichtskraft FG = mk × g (k=Teilchen, f=Flüssigkeit) b) Auftrieb FA = mF × g (⇒ verdrängte Flüssigkeit) c) Reibungskraft FR = f × v = Reibungskoeffizient × Geschwindigkeit (mit wachsender Geschwindigkeit v wächst auch FR) Gleichgewicht: FG - FA - FR = 0 = Fges Am Anfang: v = 0 ⇒ FR = 0 ⇒ Fges = FG - FA = mK g - mF g = (mK - mF) g Beschleunigungsphase: Schwierig zu modellieren! Sekundenbruchteile! Gleichförmige Bewegung: v = const ⇒ Fges = 0 ⇒ vs = Konstante Sinkgeschwindigkeit Fges = (mK - mF) g - f v = 0 ⇒ (mK - mF) g = f v Einsetzen liefert dann für die Sinkgeschwindigkeit vs: Normale Sinkgeschwindigkeiten für Blutzellen von Gesunden liegen zwischen 3-4 mm/h; allerdings kann dieser Wert auf bis zu 100 mm/h bei bestimmten Krankheiten ansteigen (Hauptgrund: Zellradius r wird größer ⇒ Agglutination der Erythrozyten ⇒ "Geldrollenbildung"; Änderungen von η sind dagegen nur von sekundärer Bedeutung!). Eine Möglichkeit vSink zu vergrößern ist die Zentrifugation (vgl. Frage 2). (vgl. Skript, 1.2.3. und 1.2.4.) 1 Frage 2: Welche Kräfte wirken bei der Zentrifugation auf ein Teilchen und wovon hängt die Teilchengeschwindigkeit ab? Für die Kraft, die auf ein Teilchen (mit der Geschwindigkeit v) auf einer Kreisbahn mit dem Radius r wirkt, gilt: Somit gilt dann für die Zentrifugalkraft bzw. die Zentripetalbeschleunigung: F = m a = m ω2 r ⇒ a = ω2 r r R Bei einer Zentrifuge wird ein Körper um eine Achse "geschleudert". Es gilt: 2 2 ω, f, T ω = 2π f ⇒ aZ = 4π f R Vernachlässigt man die gleichmäßige Senkung der Teilchen im Gravitationsfeld der Erde, so kann man in die einfache Sedimentationsgleichung (vgl. Frage 1) für g (Erdbeschleunigung) die Größe aZ (Zentrifugalschleunigung) einsetzen: Die "Sedimentationskonstante" Svedberg wird zur Charakterisierung von Makromolekülen verwendet. Beispiele: Lysozym (MG=14400) ⇒ Sv=1.9×10-13 s Rinderserumalbumin (MG=66500) ⇒ Sv=5×10-13 s. (vgl. Skript, 1.2.4.) 2 Frage 3: Wie kann man die Kraft berechnen, die der Musculus biceps aufbringen muß, um den z.B. mit 5 kg auf der flachen Hand belasteten Unterarm in horizontaler Lage zu halten? Diese Frage erfordert nur wenig physikalisches Wissen, aber dafür die Kenntnis der trigonometrischen Funktionen (Merke: sin α = Gegenkathete/Hypotenuse; cos α = Ankathete/Hypotenuse). Folgende Zeichnung gibt die Verhältnisse wieder: Muskel Beispiel: l2 = 3 cm l1 = 30 cm = 80° Fs = 200 N FM = l3 H sin l3 Fs l2 l1 Im einfachsten Fall, d.h. wenn nur rechte Winkel vorliegen würden, gilt das Hebelgesetz: Kraft × Kraftarm = Last × Lastarm ⇒ l1 × F1 = l2 × F2 Da der Lastarm 10× so lang ist wie der Kraftarm, müßte die Kraft auch 10× so groß sein, damit die Gleichgewichtsbedingung erfüllt ist, d.h. es wären 2000 N notwendig. Da die Kraft aber nicht im rechten Winkel wirkt, sondern im Winkel α = 80° gilt für FM: (vgl. Skript, 1.5. und 1.5.3.) 3 Frage 4: Charakterisieren Sie die 4 Grundtypen der elastischen Verformung. Welcher Typ ist mit Querkontraktion verbunden? Elastische Deformation: Körper nimmt nach Wegfall der deformierenden Kraft wieder seine ursprüngliche Form an. ∆a/2 F F l β ∆l Einfache Dehnung Scherung • Einfache Dehnung Generell gilt: Spannung σ = Kraft/Fläche [N/m2] Dabei gilt ε = ∆l/l = Dehnung = Relative Längenänderung. Dehnung ist verbunden mit Querkontraktion (vgl. z.B. ein Gummiband, das in die Länge gezogen wird)! Hier definiert man die sogen. Poissonsche Zahl: εQ = ∆a/a (a=Kantenlänge) und εQ = -µ ε • Biegung z.B. kreisförmiges Verbiegen eines Stabes • Allseitige Kompression (allseitige Belastung eines Würfels, z. B. Tauchen von U-Booten) • Scherung (vgl. obige Abbildung) • Verdrillung (Torsion): Hierbei wird ein Drehmoment z.B. auf einen Stab ausgeübt; dies kann als eine räumlich veränderliche Scherung beschrieben werden (vgl. Skript, 2.1.) 4 Frage 5: Welche Unterschiede bestehen zwischen rein elastischem und viskoelastischem Verhalten? Annahme: Die Kraft soll nur sehr kurzzeitig wirken und dann wieder voll- Kraft F ständig auf Null absinken. In dem physikalischen Modell der viskoelastischen Verformung soll eine elastische "Feder" im folgenden die elastischen Eigenschaften verkörpern, während die Bewegung eines Kolbens in Öl die viskösen Eigenschaften beschreibt. Graphische Darstellung (entlang der x-Achse ist in allen Fällen die Zeit aufgetragen): Zeitabhängigkeit der Kraftwirkung Verformung ∆I Zeit t Verhalten "Ersatzschaltbild" F "Elastisch" "Feder" Verformung ∆I Zeit t F "Viskös" "Kolbenbewegung in Öl"" Verformung ∆I Zeit t "Viskoelastisch" F Kopplung beider Elemente Zeit t Beispiele: • Elastisch: Elastische Feder bzw. Gummiband • Viskös: Kolben in "zäher" Flüssigkeit • Viskoelastisch: z.B. Sehnen und Bänder in den Gelenken (wichtig ist hier, daß es bei nur kurzzeitiger Belastung zu keiner vollständigen Verformung kommt) ⇒ Stoßdämpfer. (vgl. Skript, 2.3.) 5 Frage 6: Welche Bedeutung haben viskoelastische Eigenschaften von Sehnen, Bändern usw. für die Funktion des Bewegungsapparates? Diese Frage ist eine Erweiterung von Frage 5 und kann teilweise gleich beantwortet werden, umfaßt aber zusätzlich die physiologischen Eigenschaften. Die Verknüpfung der beiden Eigenschaften sowohl der "Feder" wie auch des "Kolbens in Öl" (vgl. Frage 5) führt zu stark gedämpften Bewegungen der Sehnen, Bänder, Knorpel usw. (⇒ Stoßdämpfer-Eigenschaft). Eine Bewegung kann unmöglich rein viskös sein, da hier eine Verformung faktisch nicht zurückgehen würde (d.h. "Springen" und das daraus resultierende "Zusammendrücken" des Knorpels oder Dehnen der Sehnen und Gelenke wäre nur einmal möglich, da die Verformung ja nicht reversibel wäre). Die Einwirkung einer starken äußeren Kraft würde bei rein elastischem Verhalten zu großen Deformationen führen die zu Schädigungen des Materials führen können. Eine solche Überbeanspruchung z.B. der Bänder oder der Sehnen wäre extrem ungünstig. Viskoelastisches Verhalten ist die ideale Verknüpfung von elastischer und visköser Verformung für das Funktionieren unseres Bewegungsapparates; nur auf diese Weise können kurzzeitige Stöße abgefangen werden. Hier wirken gleichzeitig die "Feder" und der "Kolben in Öl" gegen den Kraftstoß, so daß eine geringere Dehnung entsteht. Die Kraftstöße sind im Vergleich zu dem viskoelastischen Dehnungsvorgang von so kurzer Dauer, daß die Dehnung vergleichsweise gering ist. (vgl. Skript, 2.3.) 6 Frage 7: Erklären Sie die Bedeutung isochorer, isobarer und isothermer Veränderungen bei der Atmung? Für viele Betrachtungen kann Luft (besteht zu ca. 80% aus N2 und ca. 20% aus O2) als ein ideales Gas angesehen werden, d.h. man nimmt an, daß keine Wechselwirkungen zwischen den einzelnen Gasmolekülen vorliegen. Hier gilt das sogen. "Ideale Gasgesetz" (meist mit T = 310 K und p = 100 kPa): Folgende Prozesse besitzen größere Bedeutung: a) Isotherm ⇒ T=const; ⇒ pV=const b) Isobar ⇒ p=const; ⇒ V/T=const c) Isochor ⇒ V=const; ⇒ p/T=const d) Adiabatisch, d.h. kein Energieaustausch mit Umgebung! Die Atmung verläuft nicht isochor, aber weitgehend isotherm und isobar. Dabei wird bei einem normalen Atemzug ca. 0,5 l Luft ausgetauscht. Zur Definition weiterer wichtiger Begriffe s. folgende Abbildung: Die Volumina im Spirometer und in der Lunge sind dabei verschieden ⇒ Normierung auf Normalbedingungen erforderlich! Man sollte sich auch vergegenwärtigen, daß der Gasaustausch über die Haut beim Menschen nur ca. 1% ausmacht, während es beim Frosch ~30% sind. (vgl. Skript, 3.1.) 7 Frage 8: Welche physikalische Ursache haben die folgenden Blutdruckdifferenzen? a) Zwischen weiten Kopf- und Fußblutgefäßen? Wie z.B. in einem Standzylinder, setzt sich auch im Menschen der Druck aus zwei unterschiedlichen Basis-Anteilen zusammen, dem äußeren Druck (p0) und dem Druck der Flüssigkeitssäule, der lediglich von der "Füllhöhe" der Flüssigkeit (d.h. des Blutes) abhängig ist (hydrostatischer Druck): p = p0 + ρgh. Somit nimmt der Blutdruck vom Kopf zu den Füßen zu. Zusätzlich ist der Druck durch die Pumpaktivität des Herzens zu berücksichtigen. Der "Nullpunkt" liegt in Herzhöhe; oberhalb des Herzens herrscht Unterdruck! b) Zwischen Systole und Diastole? Die periodische Ausstoßung von Blut aus dem Herzen führt zur periodischen Änderung des Druckcs in den Arterien zwischen dem systolischen und dem diastolischen Druck. Wichtigste Anwendung: Blutdruckmeß-Methode nach Riva-Rocci (vgl. Frage 13). c) Zwischen Arterien und Venen? Der arterielle Blutdruck ist höher als der venöse. Dieser Abfall ergibt sich aus den Reibungsverlusten, die in der Strömungsrichtung des Blutes vom arteriellen zum venösen Teil auftreten. Die Reibungsverluste hängen vom Gefäßquerschnitt, der Viskosität des Blutes und der Gefäßlänge ab. Der Durchmesser der Aorta beträgt ca. 2.5 cm, der Durchmesser aller Arterien ist hingegen ca. 1000× so groß ⇒ v in Kapillaren viel kleiner (ca. 0.3 mm/s) als in der Aorta (ca. 0.5 m/s) ⇒ Leitwert der Kapillaren viel kleiner ⇒ Druck in Kapillaren viel kleiner als in der Aorta! (vgl. Skript, 3.1.6.) 8 Frage 9: Welcher Zusammenhang besteht zwischen dem Partialdruck eines Gases und seiner Konzentration im Blut? Steht ein Gas oder ein Gasgemisch (wie z.B. Luft, die im wesentlichen aus Stick2 2 stoff (~ 80%) und Sauerstoff (~ 20 %) und geringeren Mengen an Kohlendioxid besteht) im Kontakt mit einer Flüssigkeit (z.B. Blut), so wird sich eine bestimmte Menge des Gases in der Flüssigkeit lösen. Die Konzentration des gelösten Gases ci ist direkt proportional zum Partialdruck pi des Gases über der Flüssigkeit. Die ProWasser portionalitätskonstante α wird als Bunsenscher Löslichkeitskoeffizient bezeichnet: ci = α × pi ; [α] = mol × m-3 × Pa-1. In physiologischer Hinsicht ist von Bedeutung, daß sich Kohlendioxid (CO2) etwa 25-fach besser löst als Sauerstoff, weshalb die Natur ein zusätzliches Transportsystem für den Sauerstoff (über das Hämoglobin) im Organismus schaffen mußte. Somit ist die Bindung des Sauerstoffs an das Hämoglobin entscheidend für den O2-Transport im Organismus. Bemerkenswerterweise nimmt die Löslichkeit von Gasen mit zunehmender Temperatur ab; so läßt sich z.B. der CO2-Gehalt einer wäßrigen Lösung durch Heizen vermindern (Mineralwasser, das in der Sonne stand, hat einiges an "Kohlensäure" verloren!). ⇒ α ~ 1/T Um eine Lösung zu entgasen, sollte man also Vakuum anlegen und das Gas ausheizen (vgl. der Kohlensäuregehalt einer Sprudelflasche an einem heißen Sommertag)! (vgl. Skript, 3.2.4.) N CO2 O Gelöste Gase 9 Frage 10: Was ist die Viskosität und welchen Einfluß hat sie auf die Blutströmung? Wenn sich ein Körper in einer Flüssigkeit bewegt, wirkt auf ihn eine Reibungskraft FR, die proportional zum Geschwindigkeitsgradienten (∆v/∆x), der Querschnittsfläche A und der Viskosität η ist: FR = η A (∆v/∆x). Die Viskosität η [Pa s = N/m2 s] ist ein Maß für die innere Reibung bzw. die "Zähigkeit" einer reinen Flüssigkeit bzw. einer Lösung; diese Größe nimmt in hohem Maße mit der Temperaur ab. So ist z.B. Öl deutlich visköser als reines Wasser (bei gleicher Temperatur). Bei Lösungen hängt die Viskosität von einer Vielzahl von Faktoren ab, wie z.B. - der Konzentration des gelösten Stoffes - der Ionenstärke (z.B. Konzentration an gelösten Na+-Ionen) - dem Molekulargewicht der gelösten Substanzen (höhermolekulare Substanzen ergeben wesentlich viskosere Lösungen als niedermolekulare Substanzen) Das Zustandekommen von η kann man sich so vorstellen, daß sich in einer strömenden Flüssigkeit die unterschiedlichen Flüssigkeitsschichten aneinander "reiben". Die "Reibung" ist dabei am Rand eines Gefäßes am größten und somit auch die Geschwindigkeit minimal (v = 0 bei benetzenden Flüssigkeiten)! Für die Stromstärke I [m3/s] einer Flüssigkeit durch ein Rohr (in physiologischer Hinsicht: Strömung des Blutes durch eine Ader) mit dem Querschnitt A (πr2) und der Länge l, gilt beim Anliegen einer Druckdifferenz ∆p: Diese (extrem wichtige!) Formel stellt das Hagen-Poiseuillesche Gesetz dar. Die wichtigste Aussage daraus ist, daß der Radius in der 4. Potenz ein geht, d.h. bei einer Verdopplung des "Röhrenquerschnittes" die 16-fache Flüssigkeitsmenge pro Zeiteinheit fließt. Je höher die Viskosität der Flüssigkeit ist (Relevanz des "Aderlaß"), desto weniger Flüssigkeit fließt auch pro Zeiteinheit. (vgl. Skript, 3.3.4. und 3.3.5.) 10 Frage 11: Welche Bedeutung hat die Oberflächenspannung für die Funktion der Lungenalveolen? Flüssigkeiten haben grundsätzlich das Bestreben Kugelform anzunehmen und so der umgebenden Luft nur eine sehr geringe Oberfläche auszusetzen (stabilster Zustand). Das gilt auch, wenn Flüssigkeiten unterschiedlicher Polarität gemischt werden (z.B. Öltröpfchen in Wasser). Der Grund dafür ist die sogen. Kohäsionskraft. Diese Kraft zieht ein Teilchen an der Oberfläche immer wieder zurück in das Innere der Flüssigkeit. Im Inneren der Flüssigkeit kompensieren sich diese Kräfte jedoch gegenseitig, so daß hier das Teilchen keine Kräfte erfährt (vgl. oben). Die Messung der Oberflächenspannung σ = ∆W/∆A kann z.B. mit der Drahtbügelmethode erfolgen (s. limks). Hier wird die Kraft bestimmt, die erforderlich ist, eine bestimmte Vergrößerung einer Oberfläche zu erzielen: F = 2 σ l mit σ = ∆W/∆A. Man sollte sich auch noch vergegenwärtigen, daß der Druck umgekehrt proportional zum Radius (z.B. einer Seifenblase) ist (p = 2σ/r). Verbindet man z.B. eine große und eine kleine Seifenblase, so "bläst" die kleine díe größere auf. In der Lunge tragen die einzelnen Alveolen einen Flüssigkeitsfilm, der durch seine ihm eigene Oberflächenspannung zu einer Zugspannung an dem Lungengewebe führt, die durch die Atemmuskulatur bei der Einatmung und Ausdehnung der Alvea überwunden werden muß. Um diese Kraft gering zu halten, produziert das Lungengewebe eine oberflächenaktive Substanz, die die Oberflächenspannung auf ca. 10% heruntersetzt, um so auch die notwendige Energie herabzusetzen. Wichtig: Atemnotsyndrom bei Frühgeborenen bei fehlenden oberflächenaktiven Substanzen ("Lungensurfactant"). (vgl. Skript, 3.1.7.) 11 Frage 12: Was versteht man unter oberflächenaktiven Stoffen? Bezug zur Frage 11: Oberflächenspannung σ = ∆W/∆A Jeder reine, flüssige Stoff besitzt bei einer gegebenen Temperatur eine charakteristische Oberflächenspannung, die aus der Wirkung der Kohäsionskräfte zwischen den Flüssigkeitsmolekülen entsteht. Gleiches gilt an der Grenzfläche zwischen nichtmischbaren Flüssigkeiten. Der Wert dieser Oberflächen- oder Grenzflächenspannung wird durch gelöste Stoffe beeinflußt. Im Hinblick auf Wasser beeinflussen Salze, organische Säuren mit kleinen Resten (z.B. Essigsäure) oder auch stark hydrophile Substanzen wie z.B. Zucker oder Glycerin die Oberflächenspannung nur unwesentlich. Diese Stoffe nennt man kapillarinaktiv. Benetzung: Adhäsion zwischen Flüssigkeit und und Festkörper größer als die Kohäsion in der Flüssigkeit. Benetzende Flüssigkeit: Flüssigkeit steigt hoch! Nicht-benetzende Flüssigkeit: Absenkung! Im Gegensatz dazu senken schon geringe Konzentrationen an langkettigen aliphatischen Säuren oder Alkoholen die Oberflächenspannung ganz beträchtlich. Diese Stoffe nennt man kapillaraktiv oder oberflächenaktiv. Die moderne Bezeichnung ist Tenside; sie sind in allen Waschmitteln enthalten. Alle derartigen Stoffe haben ein gemeinsames Strukturmerkmal: Sie besitzen einen stark hydrophilen "Kopf" (z.B. Carboxylat- oder Sulfonatgruppen) und einen langen hydrophoben "Schwanz". Dabei orientieren sich in wäßriger Lösung diese Substanzen so, daß ihre hydrophoben Reste einen möglichst geringen Kontakt zum Wasser besitzen, was auch einem Zustand geringster Energie entspricht (z.B. Aufbau einer Zellmembran) (vgl. auch Lungenalveolen, Gallensäuren). Liposomen sind augenblicklich als "Fett-freundliche" Verpackung für verschiedene Pharmaka groß im Gespräch (wie gelangen Wirkstoffe in die Zellen?). (vgl. Skript, 3.1.7.) 12 Frage 13: Beschreiben und erklären Sie die Messung des systolischen und diastolischen Blutdruckes nach Riva-Rocci! Der Blutdruck ist nicht konstant, sondern schwankt mit der Pulsfrequenz zwischen einem Maximalwert (systolischer Druck, ps) und einem Minimalwert (diastolischer Druck, pd). Richtwerte (Armarterie in Herzhöhe): ~ 70-120 mm Hg. Blutdruckmeßverfahren nach Riva-Rocci: - - - - Eine feste, nicht dehnbare Manschette wird um den Arm gelegt Unter der Manschette befindet sich ein aufblasbarer Gummischlauch, der mit einem Manometer verbunden ist p > ps: Armader wird vollständig abgedrückt (Geräusche treten nicht auf). ps > p > pd: Blutdruck zwischen dem diastolischen und dem systolischen Druck. Bei jedem Herzschlag (= größter Druck) wird Arterie kurz geöffnet. Das beim Einströmen des Blutes verursachte Geräusch ("Korotkoff´sches Geräusch") läßt sich mit einem Stethoskop in der Ellenbeuge verfolgen (Einströmgeschwindigkeit sehr groß!) Einsetzen des Geräusches ⇒ Systolischer Druck (turbulentes Profil) Verschwinden des Geräusches ⇒ Diastolischer Druck (Übergang von turbulenter zu laminarer Strömung). Wichtig: Oberhalb pSyst ⇒ Keine Strömung; zwischen pSyst und pDiast impulsartige Öffnung der Gefäße ⇒ Turbulenz verursacht Geräusche (vgl. Skript, 3.1.3.). 13 Frage 14: Welche Eigenschaften des Gefäßsystems und des Blutes beeinflussen die Blutstromstärke? Besteht zwischen den Enden einer zylindrischen Röhre mit dem Querschnitt A und der Länge l eine Druckdifferenz ∆p = p1-p2, so wirkt eine Kraft F = A∆p, wobei die Fläche A = πr2 gesetzt werden kann. Dieser ist jedoch eine bestimmte Reibungskraft, die der Strömungsgeschwindigkeit proportional ist, entgegengerichtet. Für viele Flüssigkeiten (z.B. Wasser und die meisten wäßrigen Lösungen, also auch Blut), gilt das sogen. Hagen-Poiseuillesche Gesetz: In der Gleichung bedeuten: "Mechanische" Stromstärke (Blutstromstärke I = ∆V/∆t) mit I = ∆p/R (in Analogie zum Ohmschen Gesetz) ∆V: Durchgeflossenes Volumen [m3] ∆t: Zeitintervall [s] r: Radius des Gefäßes [m] ∆p: Druckdifferenz [N/m2] zwischen Anfang und Ende des Gefäßes η: Viskosität der Lösung (z.B. Blut) [Pa s]; [Pa]=N/m2. Die Viskosität von Wasser beträgt ca. 1mPa s. l: Länge des Gefäßes [m] I: Damit das angegebene Gesetz auch wirklich gilt, muß es sich u.a. um Newtonsche Flüssigkeiten handeln (η=const), das Rohr muß starr sein, die Strömung muß laminar sein (keine Wirbel!) und das Rohr muß waagerecht liegen (d.h. das Gesetz gilt unter physiologischen Bedingungen nicht exakt!). (vgl. Skript, 3.3. und v.a. 3.3.5.) 14 Frage 15: Wie können Sie den Druckabfall in Kapillaren berechnen? Eine Kapillare ist im einfachsten Fall ein dünnes Rohr. Infolge der Reibungsverluste in der Strömung verringert sich der Druck in der Kapillare entlang der Strömungsrichtung. Wenn die Strömung laminar (keine "Verwirbelung der einzelnen Flüssigkeitsschichten") ist, hängt der Druckabfall ∆p = p1 - p2 von der Viskosität η der Flüssigkeit, der Länge l der Kapillare und dem Radius der Kapillare ab. Es gilt das Hagen-Poiseuillesche Gesetz für die transportierte Flüssigkeitsmenge: Daraus ergibt sich für den Druckverlust: Der Druckabfall wird vergrößert durch Erhöhung von η, l und I, sowie der Verringerung von r. Besonders dramatisch ist der Einfluß von r, weil hier die 4. Potenz auftritt. Druckverlust bedeutet gleichzeitig eine Verringerung des Bluttransportes in den Kapillaren. Diese Eigenschaften werden für die Regulation der Durchblutung der Blutgefäße genutzt. Die Gesamtdurchblutung ist dabei in allen Gefäßabschnitten gleich. Nur die Verteilung auf die Einzelgefäße ist unterschiedlich. Die Verringerung des Gefäßradius durch Ablagerungen in den Gefäßen ("Arteriosklerotische Plaques") sind besonders für die Blutgefäße im Herzen und im Gehirn fatal. (vgl. Skript, 3.3.) 15 Frage 16: Wie verändert sich die Blutstromstärke bei Verdoppelung des Durchmessers der Kapillare? Eine Kapillare ist ein dünnes Rohr, das auch z.B. an einem Ende dünner als am anderen Ende sein kann: v1 v2 p1 p2 Da die Kontinuitätsgleichung besagt, daß das pro Zeiteinheit fließende Volumen konstant sein muß, muß an Verengungen auch eine Erhöhung der Strömungsgeschwindigkeit erfolgen: Es gilt für die oben gezeigte Anordnung das Hagen-Poiseuillesche Gesetz: Hier hat man außerdem auch einen "Strömungswiderstand" R (in Anlehnung an das Ohmsche Gesetz) definiert: Da in der Gleichung der Radius (der Durchmesser ist ja lediglich 2 r, d.h. der gleiche Wert bis auf einen festen Zahlenfaktor) in der vierten Potenz eingeht, muß man folgern, daß bei Verdopplung des Radius die Blutstromstärke auf das 16-fache (24) ansteigt. Oder kürzer ausgedrückt: I ~ r4 (vgl. Skript, 3.3.). 16 Frage 17: Welche Veränderungen der Blutströmung treten in einem Blutgefäß in verengten oder erweiterten Gebieten auf? Da die Kontinuitätsgleichung besagt, daß das pro Zeiteinheit fließende Volumen konstant sein muß, muß an Verengungen auch eine Erhöhung der Strömungsgeschwindigkeit erfolgen (z.B. durch Erhöhung der Druckdifferenz). v1 v2 A1 A2 p2 p1 Bei Verringerung der Querschnittsfläche eines Blutgefäßes von A1 auf A2 (A2 < A1) treten folgende Veränderungen der Strömung auf: 1) Erhöhung der Strömungsgeschwindigkeit von v1 auf v2 und Verringerung des Druckes von p1 auf p2 (p1 > p2) 2) Änderung des Druckes gemäß dem Gesetz von Bernoulli, wonach der herrschende Gesamtdruck konstant ist und sich aus 3 Anteilen zusammensetzt: Statischer Druck + hydrostatischer Druck + hydrodynamischer Druck: Bei einem "horizontalen" Gefäß gilt dann vereinfacht (v, Strömungsgeschwindigkeit): A1 > A2 ⇒ v2 > v1 ⇒ In 2 muß der statische Druck sinken ⇒ p1 > p2 ⇒ "Hydrodynamisches Paradoxon" (vgl. Skript, 3.3.) 17 Frage 18: Was versteht man unter einem elektrischen Dipol und wovon hängt das Dipolmoment ab? Generell werden zwei getrennte Ladungen q mit einem entgegengesetzten Vorzeichen (also eine positive und eine negative Ladung) als "Dipol" bezeichnet. Ihr Dipolmoment ist definiert als: + +q l - p=ql -q Dabei bedeuten: p = Dipolmoment [C m] q = Ladung [C] l = Abstand der beiden Ladungen [m] Dabei sollte man noch bedenken, daß viele polare Moleküle wie z.B. Wasser oder Kohlenmonoxid (d.h. Moleküle mit Atomen stark unterschiedlicher Elektronegativitäten) ein permanentes Dipolmoment besitzen, d.h. sich in einem elektrischen Feld ausrichten. Da derartige Dipolmomente aber meistens extrem klein sind, benutzt man dann als Einheit sehr häufig das "Debye", wobei gilt: 1 Debye = 3.33x10-30 C m. Jeder Stoff erhält in einem elektrischen Feld durch Ladungsverschiebung ein induziertes elektrisches Moment. Erfolgt diese Verschiebung nur innerhalb der einzelnen Moleküle (Dielektrikum), so wird der Effekt auch als "Polarisation" bezeichnet. Ein solches elektrisches Dipolmoment bildet sich während der Ausbildung der Herzerregung auch auf dem Herzen aus den negativ und den positiv geladenen Oberflächen des Myokards in den erregten und nicht erregten Bereichen aus. Während einer Herzperiode ändern sich sowohl die Größe als auch die Richtung des Gesamtdipolmomentes des Herzens. Diese Veränderungen sind die Grundlage der EKG-Aufzeichnung. Einige typische Beispiele: Wasser (εr ~ 80); Methanol (εr ~ 34); Aceton (εr ~ 20); Luft (εr ~ 1) (vgl. Skript, 7.1.2.) 18 Frage 19: Welche Potentialverteilungen entstehen in der Umgebung des Herzens? Nicht nur elektrische Bauteile, sondern auch der Mensch, oder zumindest doch bestimmte Organe besitzen ein elektrisches Dipolmoment, so z.B. das menschliche Herz in bestimmten Erregungsphasen. Das elektrische Feld des Herzens kann nach seiner anatomischen Lage als Dipolfeld dargestellt werden, wobei man aber meistens die übersichtlicheren Äquipotentialflächen verwendet, wie es in der Abbildung auch dargestellt worden ist. a) Normal b) Herzkranker Die wichigste Anwendung ist das R EKG, wobei sich das elektrische Feld T P des Herzens im Verlauf der Kontraktion verändert (P: Erregung der VorQ S hofmuskulatur; R: Maximale AnspanFrequenz Frequenz nung (+Kammermuskulatur); P-q: Periode vom Sinus zu allen Fasern). Da die Potential-Unterschiede hier am größten sind, wird folgendermaßen abgeleitet: (1) Rechter Arm → Linker Arm (2) Rechter Arm → Linkes Bein und (3) Linker Arm → Linkes Bein. Wichtig: Die Herzfrequenz liegt bei ca. 1.3 Hz (~80 Schläge pro Minute). Äquipotentialflächen stehen senkrecht auf den Feldlinien. Zwischen unterschiedlichen Potentialen bestehen Spannungen, die in Form des EKG registriert werden (vgl. Skript, 7.1.5.3.) 19 Frage 20: Wovon hängt die elektrische Stromstärke einer elektrolytischen Lösung ab und welche Kräfte wirken auf die Ionen? Unter einer elektrolytischen Lösung versteht man eine (in der Regel) wäßrige Lösung, die eine Verbindung enthält, die in Ionen dissoziiert. Darunter sollen hier in erster Linie starke Elektrolyte, die vollständig dissoziiert sind, also z.B. NaCl oder CaCl2, verstanden werden. Legt man eine Spannung an, so wandern die positiv geladenen Kationen zur Kathode, während die negativ geladenen Anionen zur Anode wandern. Nach einer Beschleunigungsphase wird die Geschwindigkeit gleichförmig, da dann die Reibung die Beschleunigung kompensiert. Dann gilt FRes=0 und In der Gleichung bedeuten: e: Elementarladung (1.6×10-19C); E: Elektrische Feldstärke (vgl. Gleichungen für den Plattenkondensator); v: Wanderungsgeschwindigkeit; f: Reibungszahl). Die Größe µ (das Verhältnis aus Ladung und Reibungszahl) wird als Ionenbeweglichkeit bezeichnet. Ihre Einheit ist: [m2/Vs]. Diese Werte sind in der Regel sehr klein, z.B. µ Na~4.6×10-8 m2/Vs. Der dabei meßbare Stromfluß, der durch die Entladung der Ionen an den Elektroden entsteht, ist z.B. in einer NaCl-Lösung gegeben durch: Dabei ist c die Konzentration, A die Querschnittsfläche, durch die die Ionen fließen und F die sogen. Faraday-Konstante. Diese gibt das Produkt aus Avogadro-Konstante und Elementarladung des Elektrons wieder, d.h. F = 6×1023 mol-1 x 1.6×10-19 C ~ 96000 C/mol. Schwieriger wird der Fall, wenn schwache Elektrolyte, z.B. Acetat eingesetzt werden, da diese nur unvollständig dissoziiert sind. (vgl. Skript, 7.2.2.) 20 Frage 21: Wie hängt die elektrische Impedanz von biologischem Gewebe von der Frequenz der Wechselspannung ab? In der Regel besteht zwischen Strom und Spannung im Wechselstromkreis eine Phasendifferenz. Deshalb muß der Wechselstromwiderstand durch zwei Größen, den Betrag Z und den Phasenwinkel ϕ beschrieben werden. Für die elektrische Impedanz, d.h. den Wechselstromwiderstand gilt das Ohmsche Gesetz entsprechend, d.h. unter Verwendung der Effektivgrößen für Strom und Spannung: Wechselstromwiderstände lassen sich aus drei verschiedenen Anteilen zusammensetzen, aus dem Ohmschen (unabhängig von der Frequenz), dem kapazitiven (Kondensator) und dem induktiven (Spule) Widerstand. Für die beiden letzten Größen gilt: Der Wechselstromwiderstand des biologischen Gewebes setzt sich aus Ohmschen (el. Widerstand der Flüssigkeit C im Gewebe) und kapazitivem (el. Kapazität der ZellmemR bran) Widerstand in einer Parallelschaltung zusammen. Bei niedrigen Frequenzen ist der kapazitive Widerstand sehr hoch (ZC = 1/ωC). Der Strom fließt deshalb über den Ohmschen Widerstand des Gewebes. Bei hohen Frequenzen ist der kapazitive Widerstand gering und der Strom fließt hauptsächlich über den kapazitiven Widerstand. Bei Anwendung von Strömen in der Physiotherapie kann es beim Einsatz von niederfrequenten Strömen zu starken Erhitzungen des Gewebes kommen (Fettbelastung), weil vor allem der Ohmsche Widerstand wirksam wird. (vgl. Skript, 7.5.) 21 Frage 22: Worauf beruhen die therapeutischen Wirkungen des elektrischen Stromes? Obwohl der elektrische Strom in der Regel auch stark gesundheitsgefährdende Aspekte beinhaltet (z.B. durch Elektrolyse körpereigener Substanzen, durch Reizwirkung auf Nerven und Muskeln, sowie durch eine erhöhte Wärmebelastung des Organismus), gibt es wichtige Einsatzmöglichkeiten in der Medizin: a) Hochfrequenztherapie (die wichtigste Anwendung) Durch Anlegen von hochfrequentem Wechselstrom erreicht man, daß Strom durch den Körper fließt. Dies führt zu einer gezielten Erwärmung des Körperinneren ("Diathermie"). Der Einsatz von Hochfrequenz ist deshalb erforderlich, da sich bei kleineren Frequenzen das Fettgewebe wesentlich stärker als das Muskelgewebe (gerade das soll aber erwärmt werden!) erwärmen würde (Effekte: Erwärmung durch Bewegung der Ionen ⇒ Ionenströme, schnelle Schwingung der Ionen um die Ruhelage bei hohen Frequenzen. Keine Polarisation der Zellen). b) Reizwirkung auf Nerven/Muskeln (el. Polarisation der Zelle) Durch Anlegen eines niederfrequenten Wechselstromes lassen sich einige therapeutische Anwendungen realisieren, wie z.B. Reizstromtherapie (Stimulation von Muskeln), Herzschrittmacher (Ständige Stimulation des Herzmuskels)und Elektroschock (Defibrillator) c) Elektrochirurgie (el. Skalpell; endoskopische Chirurgie) Einsatz hochfrequenter Wechselströme zum Schneiden von Geweben oder Verschließen von Gefäßen (Große Elektrode/Nadelelektrode), Überhitzung und Zerstörung von Zellen (Tumor!). d) Elektroporation Durch Einwirkung von Stromimpulsen lassen sich kurzzeitig Poren in den Zellmembranen öffnen, die sich aber wieder von selbst schließen. Dadurch soll z.B. der Transport bestimmter Pharmaka in die Zelle ermöglicht werden (was aber noch ziemlich umstritten ist). Merke: Der menschliche Körper hat von Arm zu Arm etwa einen Widerstand von 1000 Ω. Da bereits 50 mA tödlich wirken können (bereits 10 mA spürt man), sind also schon Spannungen von 50 V sehr gefährlich. (vgl. Skript, 7.6.) 22 Frage 23: Was versteht man unter Bandbreite und Grenzfrequenz eines elektrischen Verstärkers und in welcher Beziehung stehen sie zu einer verzerrungsfreien Signalübertragung (z.B. EKG)? Ein Verstärker besteht in der Regel aus mehreren Verstärkerstufen (Transistoren), die durch Koppelglieder (RC-Glied) untereinander verbunden sind. Der Verstärkungsgrad ist stark von der Frequenz abhängig (Bandbreite, Frequenzbereich). Die zu verstärkenden Signale können sinusförmige Wechselspannungen sein, aber auch kompliziertere Signale, zu denen ein Frequenzspektrum von Oberwellen gehört, z.B. ein EKG-Signal. Der Verstärkungsgrad wird folgendermaßen definiert: R-C-Glieder stellen einen sogen. "Hochpass" dar, d.h. niedrige Frequenzen werden stärker abgeschwächt als höhere Frequenzen. Dabei beobachtet man die folgende Frequenz-Abhängigkeit (fU = Untere U0, A U0, M Grenzfrequenz; fO = Obere Grenzfre1 U0, M quenz) 2 Den Frequenzunterschied zwischen fU und fO bezeichnet man als Bandbreite des Verstärkers (Bereich gleicher f fO fU Verstärkung) Lineare Verzerrung: Veränderte Kurvenform (z.B. Amplituden anders, aber Signal noch Sinusförmig) Nichtlineare Verzerrung: Bei zu großer Eingangsspannung erhält man kein sinusförmiges Signal mehr. Beim EKG ist der Bereich um ca. 1 Hz wichtig (Herzfrequenz!). Die Oberwellen erstrecken sich aber bis zu 300 Hz. (vgl. Skript, 7.7.) 23 Frage 24: Was ist Kernmagnetismus und wie wird er in der Magnetischen Resonanz-Tomographie genutzt? Wie Elektronen besitzen auch die Protonen in den Atomkernen einen Eigendrehimpuls, der als Kernspin I Im Magnetfeld bezeichnet wird (h ist das Plancksche Wir- Ohne Magnetfeld kungsquantum). Dieser Spin bewirkt einen N Kreisstrom und damit ein (wenn auch kleines) Magnetfeld ("Elementarmagnetismus") oder, ganz anschaulich gesprochen, S die Atome verhalten sich wie kleine Stabmagnete, die man im Magnetfeld ausrich- Regellose Verteilung Gerichtete Verteilung ten kann. Da Wasser das häufigste Molekül im Gewebe ist und jedes Wassermolekül zwei Protonen trägt, sind die Kontraste in einem MR-Schnittbild durch die Konzentrationen der H2O-Moleküle an jedem Punkt im Körper bestimmt. Grundsätzlich sind hier 2 Möglichkeiten der Ausrichtung der "Protonen-Magnete" gegeben: Parallel und antiparallel zum Magnetfeld. Aufgrund der Boltzmann-Verteilung resultiert ein leichter Besetzungsunterschied der beiden Niveaus. Dieser kann durch Energieeinstrahlung mit der Frequenz f gesättigt werden, wobei bei der Resonanzfrequenz Absorption eintritt: g: gyromagnetisches Verhältnis des Kernes; B0: Äußeres Magnetfeld. Überlagert man dem B0-Feld ein räumlich unterschiedliches Magnetfeld ("Gradient") so ist an jedem Ort im Körper f verschieden und man kann die Abhängigkeit der Resonanzfrequenz der H2O-Moleküle vom Ort zur bildlichen Darstellung des Körpers verwenden (Protonenresonanz). Die Stärke des Signals an jedem Punkt ist abhängig vom Wassergehalt. Die Signalintensität wird in einem Schwarz-Weiß-Kontrast des Schnittbildes überführt. Die Methode ist hochsensitiv auf Veränderungen im wasserreichen Gewebe (z.B. Tumordiagnostik). Es werden hohe B0-Felder benutzt, die mit supraleitenden Magneten erzeugt werden. (vgl. Skript, 7.8.3.) 24 Frage 25: Wie hängt die Zusammensetzung der Röntgenstrahlung von den Eigenschaften der Röntgenröhre ab? Die Erzeugung und Anwendung von Röntgenstrahlen wurde erstmals 1895 von Conrad Röntgen (in Würzburg) beschrieben. Röntgen wies z.B. Gewehrkugeln (Blei bzw. Eisen ⇒ hohe Ordnungszahlen) in einem geeigneten "Probanden" nach. Röntgen ist neben MRT, PET, CT und Ultraschall das wichtigste "bildgebende" Verfahren in der Medizin. Erzeugung von Röntgenstrahlung: Anode Röntgenstrahlen Elektronenstrahl Kathode: Negativ geladen Anode: Positiv geladen Beschleunigungsspannung Kathode Heizspannung Durch "Abbremsen" der beschleunigten Elektronen (W=eU) an der Anode wird deren kinetische Energie (W=1/2mv2) in elektromagnetische Strahlung umgewandelt (W=hf). Die entstehende Strahlung hängt im wesentlichen von 2 Parametern ab: • Anliegende Heizspannung bzw. Stärke des Elektronenstrahles (Intensität der Strahlung) • Anliegende Beschleunigungsspannung (bestimmt die Grenzfrequenz und somit die Energie der Röntgenstrahlung) • Ordnungszahl des Anodenmaterials (Intensität der Strahlung) Neben dieser "kontinuierlichen" Röntgenstrahlung existiert auch ein Röntgenspektrum mit diskreten Linien. Die Lage dieser Linien (z.B. Kα-Linie) hängt (im Unterschied zur kontinuierlichen Strahlung) ganz entscheidend vom Anodenmaterial ab! (vgl. Skript, 8.1.2.) 25 Frage 26: Was ist und wie erzeugt man harte Röntgenstrahlung? Je nach Beschleunigungsspannung, mit der die Röntgenröhre betrieben wird, erhalten die Elektronen eine unterschiedliche kinetische Energie, die durch folgende Gleichung gegeben ist: W = ½ m v2 W, kinetische Energie [J=Nm]; m, Masse des Elektrons [kg]; v, Geschwindigkeit des Elektrons [m/s] Die Umsetzung dieser kinetischen Energie in elektromagnetische Strahlung ergibt folglich auch unterschiedliche Strahlungsenergien bzw. Frequenzen: e, Elementarladung (1.6×10-19 C bzw. As); h, Plancksches Wirkungsquantum (6.626×10-34 Js); c, Vakuumlichtgeschwindigkeit (3×108 m/s). Relativ willkürlich hat man Röntgenstrahlen eingeteilt: Einteilung Spannungsbereich "Weich" 5-60 kV "Mittelhart" 60-120 kV "Hart" 120-400 kV "Sehr hart" 400 kv - 3 MV "Ultrahart" > 3 MV Allerdings findet man oft auch andere Einteilungen für Röntgenstrahlung. Nach der angegebenen Tabelle müssen die anliegenden Spannungen für "harte" Röntgenstrahlung zwischen 120 und 400 kV liegen. Harte Röntgenstrahlung kann wegen der notwendigen hohen Spannungen nicht mit Röntgenröhren erzeugt werden. Dafür werden Linearbeschleuniger eingesetzt, in denen durch kaskadenartige Beschleuniger Spannungen > 106 V erzeugt werden. Wichtig: Im Praktikum wurde bei den beiden Röntgenversuchen mit einer Beschleunigungsspannung von ca. 25 kV gearbeitet, d.h. mit sehr weicher Röntgenstrahlung. (vgl. Skript, 8.1.2.) 26 Frage 27: Welche primären Wechselwirkungen treten zwischen Röntgenstrahlen und Stoffen auf? Grundsätzlich gehört Röntgenstrahlung zu den ionisierenden Strahlen, d.h. ihre Energie ist ausreichend, um Elektronen (e-) aus Atomen oder Molekülen herauszulösen. Die wichtigsten biologischen Effekte sind die Bildung freier Elektronen und freier Radikale oder allgemein die Bildung weiterer reaktiver Verbindungen (Sekundäreffekte), wobei es zur Schädigung von biologischen Makromolekülen und Zellen kommen kann. Erwünscht sind diese Effekte z.B. bei der Tumortherapie (Onkologie). Wichtige Effekte sind: 1. Elastische Streuung Wenn die Energie der Röngenstrahlung nicht zur Ionisation ausreicht, erfolgt nur eine elastische Streuung am Objekt, d.h. die Energie des Röntgenquants bleibt gleich, aber es erfolgt eine Richtungsänderung des Strahles. 2. Photoeffekt Wenn die zur Ionisierung notwendige Energie überschritten wird, wird das Röntgenquant mit der Energie hf vollständig absorbiert und ein Elektron aus der Atomhülle abgelöst. Dabei entsteht ein freies Elektron. Für dessen kinetische Energie gilt dann (A=Ablösearbeit): 3. 4. Compton-Effekt Wird ein Elektron aus einer äußeren Schale des Atoms abgelöst, so entsteht gleichzeitig noch Streustrahlung mit geringerer Frequenz, d.h. geringerer Energie. Paarbildungseffekt Trifft Röntgenstrahlung sehr hoher Energie (≥ 1.02 MeV) auf einen Atomkern, so tritt Umwandlung in ein Elektron und ein Positron ein. Elektron und Positron bilden Teilchen und Antiteilchen, d.h. wenn beide aufeinander treffen, "zerstrahlen" sie und Energie wird frei. (vgl. Skript, 8.2.2.) 27 Frage 28: Von welchen Eigenschaften des Stoffes und der Röntgenstrahlung hängt die Absorption der Röntgenstrahlen ab? Grundsätzlich gehen hier 4 Faktoren ein, die sowohl die Strahlung (1) wie auch das Material (2-4) betreffen: 1) Die Wellenlänge der Röntgenstrahlung (~ λ3) 2) Der Extinktions- bzw. Schwächungskoeffizient µ 3) Die Dicke des Absorbers d 4) Die Ordnungszahl des Materials (~ Z2) Bei gegebener Wellenlänge wird die Intensität I0 beim Passieren eines Absorbers nach folgender Gleichung abnehmen: Neben der Intensität der Strahlung ist die Halbwertsdicke d1/2 von besonderer Bedeutung. d1/2 kann graphisch sehr einfach bestimmt werden kann: I0 I0/2 d1/2 d In der Regel nimmt dabei die Halbwertsdicke mit abnehmender Wellenlänge zu. Der Schutz vor Röntgenstrahlen ist am besten durch Wände aus Elementen mit hohem Schwächungskoeffizienten µ, d.h. großer Dichte und hoher Ordnungszahl (z.B. Blei) gegeben. (vgl. Skript, 8.2.1.) 28 Frage 29: Worauf beruht der Bildkontrast in einer Röntgenaufnahme? Die Eigenschaft, die Röntgenstrahlen insbesondere in der medizinischen Diagnostik unverzichtbar gemacht haben, beruht darauf, daß die Röntgenstrahlen den menschlichen Körper durchdringen (ihn "durchleuchten") und man somit ein Bild vom Körperinneren aufnehmen kann. Obwohl man einem Patienten nicht zu hohe Strahlendosen zumuten sollte, ist diese Untersuchung routinemäßig durchführbar und für den Patienten schmerzfrei ("nicht-invasiv"). Grundlage der Röntgendiagnostik ist die sogen. Zentralprojektion: Ideale Zentralprojektion Reale Zentralprojektion "Flächige" Lichtquelle Punktförmige Lichtquelle Halbschatten Kernschatten Halbschatten Objekt Bild Da aber zum einen (im Realfall) die Röntgenquelle nicht punktförmig ist und zum anderen durch die Gesetze der geometrischen Optik hintereinander liegende Schichten mit unterschiedlicher Vergrößerung abgebildet werden (vgl. Praktikumsversuch "Röntgen I"), können hier größere Probleme auftreten. Der Bildkontrast einer Röntgenaufnahme ist letztlich durch die Dichte des untersuchten Objekts, wesentlich jedoch durch die Ordnungszahl der darin enthaltenen Elemente gegeben: Besonders Knochen, die dichter sind als Weichteile und schwerere Elemente (v.a. Calcium und Phosphor) enthalten, können von den übrigen Weichteilen gut abgegrenzt werden (vgl. Unterschiede H2O Knochen). Wichtig: "Schatten" im Röntgenbild sind hell bei Filmaufnahmen, aber dunkel bei Bildschirmdarstellung. Zur räumlichen Darstellung werden zwei Aufnahmen benötigt (1 Aufnahme liefert nur eine Ebene!) (vgl. Skript, 8.3.1. und 8.3.2) 29 Frage 30: Vergleichen Sie die Bildentstehung der klassischen Röntgenaufnahme mit der Bilderzeugung bei der modernen Computertomographie! Bei der Computertomographie (CT) werden bei der Röntgendurchstrahlung einer Körperschicht die Schwächungswerte kleiner Objektbereiche für Röntgenstrahlung bestimmt. Diesen Werten (Pixeln), die mosaikartig das Röntgenbild aufbauen (z.B. 512×512 Pixel je Körperschicht) werden dann sekundäre Graustufen zugeordnet. Das Bilderzeugungsverfahren ist grundsätzlich anders als bei dem der klassischen Röntgendiagnostik. Bei der CT wird der Patient durch zahlreiche engbegrenzte Röntgenstrahlbündel durchstrahlt, wobei die Ebene zwar gleich bleibt, aber die Projektionsrichtungen ständig wechseln. Dazu ist es notwendig den Röntgen-Fächerstrahl um den Patienten zu drehen (vgl. Abbildung) und z.B. alle 0.5° ein Bild aufzunehmen. Die durch die Absorption im Patienten auftretende Schwächung des Röntgenstrahls kann dann rechnerisch in die jeweiligen Schwächungskoeffizienten (Voxel) umgerechnet werPatient den. Dadurch erhält man bei der CT eine sehr viel bessere Auflösung der Röntgenbilder, wenngleich die Röntgendosis auch wesentlich höher ist. (Voxel entsprechen den Volumenelementen, während Pixel den Bildpunkten am Bildschirm bzw. auf dem Film entsprechen). Ei entspricht dabei der Extinktion im Voxel und I der Intensität. Wichtig: Bei "normalem" Röntgen erhält man nur eine Frontalebene; DreiDimensionalität wird durch eine zweite Aufnahme erreicht. Bereits hier - und nicht erst beim Thema Optik - sollte man die Abbildungsgleichung (d.h. das Verhältnis von Bildgröße:Gegenstandsgröße entspricht dem Verhältnis von Bildweite:Gegenstandsweite) kennen! (vgl. Skript, 8.3.1. und 8.3.2) 30 Frage 31: Wie kann man radioaktive Strahlung nachweisen? a) Fluoreszenz Werden bestimmte chemische Substanzen (z.B. Zinksulfid) von ionisierender Strahlung getroffen, so kommt es zur Aussendung von Licht (Fluoreszenz). Die Intensität des Lichtes ist ein direktes Maß für die Radioaktivität und kann über Sekundärelektronen-Vervielfacher (SEV) sehr sensitiv nachgewiesen werden. b) Schwärzung von Photoplatten Die Schwärzung eines Filmes ist die klassische Methode zum qualitativen und quantitativen Nachweis radioaktiver Strahlung. Eine Quantifizierung ist durch "Einscannen" der Platten und Bestimmung des Schwärzungsgrades möglich. c) Ionisationskammer Wird ein Plattenkondensator, der mit Luft gefüllt ist, mit einer Spannungsquelle verbunden, so bildet die Luft einen großen Widerstand und es kommt zu keinem Stromfluß. Wird durch radioaktive Bestrahlung aber die Luft ionisiert, so werden die dabei gebildeten Ionen an den Kondensatorplatten entladen und es fließt ein Strom. I ist dann proportional zur Intensität der radioaktiven Strahlung (⇒ Die für diese Anwendung wichtigsten Kondensatorgleichungen sollte man wenigstens einigermaßen beherschen!). d) Geiger-Müller-Zähler Hier liegt ein ganz analoges Prinzip zugrunde, allerdings wurde die Methode verfeinert und empfindlicher. Grundprinzip ist aber wie in (c) die Ionisation des enthaltenen Füllgases. e) Szintillationszähler Hierbei werden durch radioaktive Strahlung in einem Kristall "Lichtblitze" erzeugt, die dann wiederum Photoelektronen bilden. Diese können dann sehr selektiv und außerdem sehr empfindlich nachgewiesen werden. f) Nebelkammer Radioaktive Strahlen können hier in einer wasserdampfgesättigten Kammer als Kondensationskeime wirken, d.h. ihre Bahnen können durch Nebelbildung sichtbar gemacht werden. Dies ist ein mehr qualitativer Nachweis (vgl. Skript, 9.3.1.) 31 Frage 32: Wie kann man sich vor ionisierender Strahlung schützen? Generell: Zu den ionisierenden Strahlungen gehören UV-, Röntgen,- und radioaktive (α-, β-, und γStrahlung. Über Sekundärreaktionen führt ionisierende Strahlung zur Bildung von Radikalen, d.h. von Molekülen, die ein ungepaartes Elektron besitzen und somit .. . extrem reaktiv sind. Diese Radikale (z.B. O2 , NO oder HO ) greifen in biochemische Reaktionskaskaden ein und können z.B. die menschliche DNA verändern, was zur Entstehung von Krebs führen kann. Auf der anderen Seite sollte man jedoch auch nicht vergessen, daß Radikale auch an vielen wichtigen Reaktionen, wie z.B. bei der Atmungskette beteiligt sind; d.h. auch positive Wirkungen besitzen. Es gibt unterschiedliche Möglichkeiten sich zu schützen: a) Verhinderung der ionisierenden Strahlung Nur schwer zu realisieren (wir sind ständig der kosmischen Strahlung und innerer Strahlung (radioaktives K+) ausgesetzt), aber beste Möglichkeit! b) Verminderung der Expositionsdauer Je kürzer man sich der ionisierenden Strahlung aussetzt, umso geringer fallen auch die Strahlenschäden aus! Wichtig für medizinische Anwendungen ist die Minimierung der Strahlung durch immer empfindlichere Detektionsverfahren! c) Möglichst großer Abstand zur Quelle Die aufgenommene Strahlendosis sinkt quadratisch mit der Entfernung, d.h. doppelt so großer Abstand senkt die aufgenommene Strahlenmenge auf ein Viertel! d) Möglichst guter Absorber Je mehr Materie man zwischen sich selbst und die Quelle der radioaktiven Strahlung bringt, umso geringer ist deren Wirkung. In der Regel gilt hier, je dichter das Absorbermaterial und vor allem je höher seine Ordnungszahl ist, desto besser der Schutz, den sie bieten. Blei ist z.B. fast ideal, um sich zu schützen (vgl. auch Frage 28)! (vgl. Skript, 9.3.3.) 32 Frage 33: Erklären Sie die verschiedenen Arten des radioaktiven Zerfalls! Nur ca. 300 aller bekannten Nuklide sind wirk- a) α-Zerfall lich stabil. Der Rest (inbesondere Kerne mit A A-4 4 X Y + α Z-2 2 vielen Neutronen) ist radioaktiv, d.h. diese Ker- Z ne zerfallen unter Bildung charakteristischer 226 222 4 Ra Rn + α 86 2 Produkte. Man unterscheidet nach der Reihen- 88 folge der zeitlichen Entdeckung den α-, β- und γ-Zerfall. Dabei bestehen nur α- und β-Strahlen b) β(-)-Zerfall A 0 aus geladenen Teilchen, die in einem elek- A ~ X Y + β + ν Z Z+1 -1 trischen Feld abgelenkt werden können, wäh60 0 rend γ-Strahlung, die immer als Folge von α- 60Co ~ Ni + β + ν 27 28 -1 und β-Zerfall auftritt, die Eigenschaften einer elektromagnetischen Welle besitzt. Beim α-Zerfall, bei dem aus dem Mutterkern c) β(+)-Zerfall A 0 ein Heliumkern ausgestoßen wird, entsteht ein A X Y + β + ν Z-1 +1 Tochterkern, dessen Massenzahl um 4 und die Z 11 0 Ladungszahl um 2 Einheiten vermindert ist. Die 11C B + β + ν 6 5 +1 beiden anderen Zerfälle kann man sich als die Umwandlung eines Neutrons in ein Proton (β--Zerfall) bzw. eines Protons in ein Neutron (β+-Zerfall) vorstellen. Alle genannten Arten der radioaktiven Strahlung besitzen typische Eigenschaften und unterschiedlich schädigende Wirkungen gegenüber biologischen Geweben (⇒ Tumorbehandlung!). Wichtig: Die Zahl links oben entspricht der Massenzahl, d.h. der Summe der Neutronen und Protonen. Die Zahl links unten entspricht der Ordnungszahl (was auch gleichbedeutend mit der Protonenzahl ist und bei Atomen auch der Elektronenzahl entspricht). (vgl. Skript, 9.2.1.) 33 Frage 34: Erklären Sie die Absorptionen und Wirkungen der verschiedenen radioaktiven Strahlen! Die unterschiedlichen Arten der radioaktiven a) α-Zerfall Strahlung unterscheiden sich ganz charakteA A-4 4 ristisch in ihren Absorptionseigenschaften, in X Y + α Z Z-2 2 ihrer Reichweite und in ihren Wirkungen auf 226 222 4 Ra Rn + α tierisches Gewebe. 88 86 2 α-Strahlen bestehen aus positiv geladenen Heliumkernen, β--Strahlen hingegen aus Elektrob) β(-)-Zerfall nen. Beide werden in einem elektrischen Feld A A 0 ~ Y + β + ν abgelenkt. Die γ-Strahlen hingegen sind elek- Z X Z+1 -1 tromagnetische Wellen, die nicht im elektri- 60 60 0 ~ Ni + β + ν schen Feld abgelenkt werden. γ-Strahlung ent- 27Co 28 -1 spricht in ihren Eigenschaften und Wirkungen der Röntgenstrahlung (⇒ Frage 25), hat aber c) β(+)-Zerfall einen anderen Entstehungsmechanismus. A A 0 Y + β + ν Radioaktive Strahlen entstehen im Ergebnis Z X Z-1 +1 v o n Z e r f a l l s p r o z e s s e n v o n i n s t a b i l e n 11 11 0 B + β + ν Atomkernen (⇒ Frage 33 und nebenstehende 6 C 5 +1 Abbildung). Die einzelnen Arten der radioaktiven Strahlung unterscheiden sich charakteristisch in ihrer Reichweite und Wirkung auf Gewebe. α-Strahlung besitzt eine sehr kurze Reichweite. Bereits ein Blatt Papier kann diese Strahlung vollständig absorbieren. Jedoch hat diese Strahlung aufgrund ihrer hohen Energie gegenüber den anderen Arten der radioaktiven Strahlung das höchste Ionisationsvermögen. β--Strahlung hat eine Reichweite von wenigen Zentimetern. Ihr Ionisationsvermögen ist geringer als das der α-Strahlung, aber höher als von γ-Strahlung. Die Reichweite der γ-Strahlung beträgt mehrere Meter. Bemerkenswert ist auch, daß α-Teilchen eine fast diskrete Energie (bzw. Geschwindigkeit) besitzen, während β-Teilchen eine breite Verteilung der einzelnen Teilchengeschwindigkeiten aufweisen. (vgl. Skript, 9.2.1.) 34 Frage 35: Erläutern Sie die Gesetzmäßigkeiten des radioaktiven Zerfalls! Für alle Arten des radioaktiven Zerfalls gilt die (sehr wichtige!) sogen. Zerfallsgleichung. N(t) und N0 entsprechen der Anzahl der radioaktiven Kerne eines Radionuklids zum Zeitpunkt t bzw. zum Beginn der Beobachtung. In der Gleichung bedeuten: λ, Zerfallskonstante [1/s]; τ, mittlere Lebensdauer [s]; T½, Halbwertszeit [s]. Die Halbwertszeit gibt dabei die Zeit an, in der die Hälfte der Kerne eines radioaktiven Präparates zerfallen ist (bzw. in der die Aktivität des Präparates auf die Hälfte abgenommen hat), während die mittlere Lebensdauer die Zeit charakterisiert, in der ein Rückgang auf 1/e, d.h. ca. auf 37% stattfindet. Sehr anschaulich läßt sich dies in der folgenden Abbildung darstellen: N0 N0/2 N0/e T1/2 τ t Wie bei allen exponentiellen Zusammenhängen kann auch hier durch die halblogarithmische Darstellung (ln N(t)/N0 gegen t) eine Gerade erhalten werden. Deren Steigung entspricht der Zerfallskonstanten. Wichtig ist in diesem Zusammenhang, daß der radioaktive Zerfall ein statistischer Prozess ist, d.h. man kann nicht sagen, wann genau ein bestimmter Kern zerfällt (vgl. Skript, 9.2.2.) 35 Frage 36: Was ist die Aktivität eines radioaktiven Präparates und wie ändert sie sich mit der Zeit? Die Aktivität (A) eines radioaktiven Präparates definiert die Zahl der radioaktiven Zerfälle (∆N) pro Zeiteinheit. Die Einheit der Aktivität ist das Becquerel (Bq) und gibt die Zahl der Zerfälle pro Sekunde an. Das Curie (Ci), das noch häufig verwendet wird, ist völlig analog, und es gilt 1 Ci = 3.7×1010 Bq. Ähnlich wie die Zahl der pro Zeiteinheit zerfallenden Kerne, ändert sich auch die Anzahl der Zerfälle und wird mit der Zeit gemäß einer e-Funktion kleiner. Somit gilt auch hier das allgemeine Zerfallsgesetz der Radioaktivität: Durch Umstellen und Logarithmieren läß sich dieses Gesetz z.B. auch in eine einfache Geradengleichung umformen: In der Gleichung bedeuten: λ, Zerfallskonstante [1/s]; τ, mittlere Lebensdauer [s]; T½, Halbwertszeit [s]. Die Halbwertszeit gibt dabei die Zeit an, in der die Hälfte der Aktivität eines radioaktiven Präparates erreicht wird (bzw. in der die Hälfte der ursprünglich vorhandenen Kerne zerfallen ist), während die mittlere Lebensdauer die Zeit charakterisiert, in der ein Rückgang auf 1/e, d.h. ca. auf 37% stattfindet. Aktivität (A) und noch vorhandene Teilchen N lassen sich sehr leicht ineinander umrechnen (vgl. Skript, 9.2.2.): In der Natur existieren nur 3 Zerfallsreihen aber doch Halbwertszeiten zwischen Millisekunden und Milliarden von Jahren. Eine günstige Halbwertszeit ist wesentlich für die medizinische Anwendbarkeit eines radioaktiven Isotops! 36 Frage 37: Wie erzeugt man künstliche Radionuklide? Erläutern Sie Anwendungen der Radionuklide in der Medizin! Künstliche Radionuklide für medizinische Anwendungen werden in der Regel in Kernreaktoren (bzw. in "Nuklidgeneratoren") erzeugt. Dazu wird ein natürlich-vorkommender "Targetkern" mit z.B. Neutronen, α-Teilchen, γ-Quanten usw. "beschossen", wobei eine Kernreaktion eintritt und ein neuer Kern entsteht. So kann z.B. 14C durch Neutronenbeschuß von 14N hergestellt werden. Anwendungen sind die Tracertechniken: Eine bestimmte Substanz wird mit einem radioaktiven Nuklid markiert und dann dem Patienten oral oder durch Injektion appliziert. Durch die emittierte radioaktive Strahlung läßt sich dann die Verteilung des radioktiven Isotopes im Körper bestimmen. Wichtige Beispiele: a) Funktionsdiagnostik Hier untersucht man, welche Menge eines bestimmten radioaktiven Elements pro Zeiteinheit von einem Organ aufgenommen wird (wichtig ist z.B. bei der Schilddrüsendiagnostik das Isotop 131I mit T½ = 8.1 Tage). Damit kann man auch "heiße" und "kalte" Bezirke in der Schilddrüse diagnostizieren. Dies ermöglicht Rückschlüsse darauf, ob das gesamte untersuchte Organ funktioniert, oder nur ein bestimmter Bereich. b) Strahlen- bzw. Tumortherapie Als Beispiel wird die 60Co-Kanone (ein γ-Strahler) zum Abtöten von Krebszellen im Körper verwendet. Bei der äußeren Einwirkung muß dabei möglichst oft die Richtung der Strahlung geändert werden, um die Schädigung des gesunden Gewebes möglichst gering zu halten ("Bestrahlungsplanung"). Es gibt eine sehr große Anzahl von radioaktiven Strahlern, die entweder von außen oder durch vorübergehende Implantation zur Tumorbehandlung verwendet werden. Wichtig ist aber eine günstige Halbwertszeit! c) Bestimmung wichtiger Phosphormetabolite Eine Vielzahl von wichtigen, phosphorylierten Metaboliten entsteht durch Einbau einer Phosphatgruppe aus ATP ("Adenosin-triphosphat"). Setzt man "heißes" ATP ein, das mit 32P markiert ist, so kann man die Bildung und das metabolische Schicksal solcher Produkte sehr leicht verfolgen. (vgl. Skript, 9.3.2.) 37 Frage 38: Worauf beruht die Positronen-Emissions-Tomographie? Bei der Positronen-Emissions-Tomographie (PET) wird dem Patienten zunächst ein Positronenstrahler verabreicht, der sich in dem interessierenden Organ auch anreichern sollte. Oftmals setzt man hier mit 18Fluor-markierte Deoxyglucose ein. Prominente Vertreter für Positronenstrahler sind z.B. 11C, 13N und das bereits oben erwähnte 18F. Grundlage der Methode ist die sogen. "Vernichtungsstrahlung": Diese tritt auf, wenn sich ein Elektron und ein Positron treffen, wobei wiederum zwei γQuanten gebildet werden: e- + β+ → 2 γ-Quanten Detektoren für γ-Strahlen Die "Vernichtungsstrahlung" entsteht unmittelbar am Ort der Reaktion von Elektron und Positron. γQ ua Der Aufbau eines PET-Gerätes ist in der nt 1 Abb. dargestellt: Der Patient wird von einer kreisförmigen Anordnung von Detekγ-Q ua nt toren (meist Szintillationszähler) für γ2 Strahlung umgeben. Da man die Lage des Patienten kennt und außerdem weiß, daß bei der Vernichtungsstrahlung die beiden γ-Quanten unter einem Winkel von exakt 180° abgestrahlt werden, kann man aus der Differenz der Zeiten, in der die Quanten die gegenüberliegenden Detektoren erreichen, die Lage der Strahlenquelle genau bestimmen. PET ist aufgrund des hohen Aufwandes für den Nuklidgenerator, die Anschaffung des Scanners und die notwendigen Sicherheitsmaßnahmen eine sehr teure Methode, aber bislang das einzige Diagnoseverfahren für z.B. die Alzheimer-Erkrankung. Eine zunehmend wichtige Methode zur Herz- und Hirn-Diagnostik ist "SPECT" ("Single Photon Emission Computer Tomography"). (vgl. Skript, 9.3.2.) Organ mit aufgenommenem β+-Strahler 38 Frage 39: Welche Dosiseinheiten werden zur Beschreibung der Wirkung radioaktiver Strahlung verwendet? Die Dosis ist kein Maß für die von einer Quelle abgegebene Strahlungsmenge und auch kein Maß für die Strahlung, der ein Patient ausgesetzt ist, sondern nur für die von ihm aufgenommene Strahlung! Die Ionendosis gibt die Ladungsmenge der durch Strahlung gebildeten Ionen eines Vorzeichens bezogen auf die Masse des Targets, in der diese Ladungsmenge gebildet wurde, an: Bezieht man die Ionendosis auf eine definierte Zeiteinheit, so erhält man die Ionendosisleistung. Diese Größe kann z.B. mit der Ionisationskammer (⇒ Nachweisverfahren für Radioaktivität) bestimmt werden. Die Energiedosis D beschreibt die absorbierte Strahlenenergie je Masse des entsprechenden Targets: Früher rechnete man mit dem Rad, abgekürzt "rd" (1 rd = 10-2 Gy). Die Energiedosis dividiert durch die Zeit t liefert die Energiedosisleistung. Die Energiedosis ist primär schwer zu messen. Meistens wird über Umrechnungsfaktoren (Ionisierung Luft ⇒ Ionisation im Gewebe) von der Expositionszeit auf die Energiedosis geschlossen. Die Äquivalentdosis (Maßeinheit Sievert, Sv) erhält man schließlich durch Multiplikation der Energiedosis mit dem Faktor q, der relativen biologischen Wirksamkeit. Röntgenstrahlung, γ- und β-Strahlung haben q=1. Für α-Teilchen gilt dagegen q=20. Ungefähr 5 Sv werden als letal angenommen; ca. 1 Sv führt bereits zur Strahlenkrankheit. (vgl. Skript, 9.3.3.) 39 Frage 40: Von welchen physikalischen Größen hängt der Gasaustausch zwischen Lunge und Blut ab? Bei der Diffusion gleichen sich die vorhandenen Konzentrationsunterschiede als Folge der Brownschen Molekularbewegung aus. Dies geschieht nach den folgenden Gleichungen, wobei man von einem linearen Konzentrationsgradienten zwischen den beiden Konzentrationen c1 und c2 über die Strecke d ausgeht: Hier bedeuten c1 und c2 die Konzentrationen links und rechts der Membran (c1 soll höher als c2 sein!) und d die Membrandicke. Dies führt zu einem Diffusionsstrom (P: Permeationskonstante; A: Querschnittsfläche): Bei der stationären Diffusion kommt es jedoch zu keinem Ausgleich der Konzentrationen, da durch einen aktiven (= energieverbrauchender) Mechanismus jeweils der status quo wieder hergestellt wird. Der Gasaustausch zwischen Lunge und Blut ist ein Diffusionstransport durch viele Schichten: K ist hier der sogen. Kroghsche Diffusionskoeffizient K = α D. α ist die Löslichkeit (z.B. von Sauerstoff); die Konzentration des gelösten Sauerstoffs kann aus der Löslichkeit α und dem Partialdruck pO2 berechnet werden: Wichtig: Die Löslichkeit von Gasen in Flüssigkeiten ist vom Partialdruck und von der Temperatur abhängig. Die Löslichkeit steigt mit abnehmender Temperatur und mit zunehmendem Partialdruck des Gases über der Flüssigkeit! (vgl. Skript, 4.2. und 4.2.3.) 40 Frage 41: Welche physikalischen Eigenschaften beeinflussen den Stofftransport durch Membranen? Trennt man zwei Lösungen unterschiedlicher Konzentration c1 > c2 durch eine Membran (z.B. Lipidmembran von Zellen), so werden sich im Laufe der Zeit die beiden Konzentrationen infolge der auch hier gültigen Diffusionsgesetze (Brownsche Molekularbewegung) ausgleichen. In der Membran bildet sich dabei ein linearer Konzentrationsgradient: Membran Höhere Konz. c1 Geringere Konz. c2 Linearer Konzentrationsgradient in der Membran Für die Diffusion gilt grundsätzlich das Fick´sche Gesetz, wonach der Diffusionsstrom J [mol/s] vom Diffusionskoeffizienten D, der Querschnittsfläche A und dem Konzentrationsgradienten abhängig ist: Der Konzentrationsgradient ist dabei gegeben durch (P=Permeabilität): Die Konzentrationen werden sich also umso schneller ausgleichen, je höher der Konzentrationsunterschied, je größer die Durchtrittsfläche und der Diffusionskoeffizient sind und je dünner die Membran ist (Vorsicht: Biologische Systeme weisen oft hohe Selektivitäten auf, d.h. daß der gesamte Stofftransport doch nicht eben nur über die Diffusion erfolgt!). (vgl. Skript, 4.2.) 41 Frage 42: Wie entsteht der osmotische Druck von Körperflüssigkeiten und welche Bedeutung hat er für den Flüssigkeitsaustausch zwischen Blut und Gewebe? "Pfeffer´sche Zelle" Trennt man zwei Lösungen unterschiedlicher p = ρ g h Konzentration c1 < c2 (hellgrau: c1; dunkelgrau: c2) durch eine semipermeable Membran, die nur das Lösungsmittel passieren läßt, dann diffunSemipermeable C2 dieren Lösungsmittelmoleküle aus der "dünneMembran Hohe KonC1 zentration ren" in die "dickere" Lösung. Das führt dazu, daß sich das Steigrohr (vgl. Abb.) mit FlüssigWanderung des Niedrige KonLösungsmittels zentration keit füllt. Dies ist mit dem Aufbau eines Druckes verbunden. Der maximal auf diese Weise erreichbare Druck pOsm ist proportional der Konzentration und läßt sich gemäß der van´t Hoffschen Formel berechnen: pOsm = i c R T. Dabei entspricht i der Zahl der Teilchen, in die die Substanz (die im wesentlichen den osmotischen Druck verursacht) in Lösung dissoziiert (z.B. i=1 für Glucose und i=2 für NaCl). Der osmotische Druck einer physiologischen Kochsalzlösung (9 g/l ⇒ c = 154 mmol/l) würde demnach ca. 763 kPa betragen. Dieser Druck hat große physiologische Relevanz, weshalb man bei Injektion von Flüssigkeiten immer auf deren Isotonie achten muß, d.h. es muß der gleiche osmotische Druck herrschen wie im Blut. Dazu verwendet man in der Regel eine physiologische Kochsalz-Lösung (c = 9 g/l = 154 mM). Dies ist wichtig, damit z.B. die Erythrozyten ihre Form bewahren. Würde ein geringerer osmotischer Druck herrschen (hypotonische Lösung) würden sie schwellen bzw. platzen, bei einem höhren osmotischen Druck (hypertonische Lösung) jedoch schrumpfen. Auf der arteriellen Seite der Kapillaren ist der mechanische Blutdruck größer als der kolloidosmotische Druck des Blutes ⇒ Flüssigkeit geht vom Blut in das Gewebe über. Auf der venösen Seite sind die Bedingungen umgekehrt, d.h. der Blutdruck ist kleiner (vgl. Blutkreislauf) und Flüssigkeit strömt aus dem Gewebe in das Blut. Dies ist wichtig für die Versorgung des Gewebes mit Nährstoffen (FILTERUNG !). (vgl. Skript, 4.3.) 42 Frage 43: Welche Änderungen sind mit dem Übergang vom Ruhepotential zum Aktionspotential verbunden? Im Zellinneren herrscht generell eine höhere K+_Ionenkonzentration, während im Extrazellulärraum die Na+-Konzentration höher ist. Die Zellmembran besitzt unterschiedliche Permeabilitäten für unterschiedliche Ionen. Zum Ruhepotential der Zelle gehört eine hohe Permeabilität für die K+-Ionen, während die Na+-Permeabilität gering ist. Da Kalium-Ionen entsprechend dem Konzentrationsgradienten nach außen diffundieren, bildet sich mit der Zeit eine Ladungsdifferenz aus, die zum Aufbau eines Potentialunterschieds führt, so daß die Zelle außen positiv und innen negativ geladen wird. Die kann im einfachsten Fall durch die Nernst-Formel beschrieben werden: Die Terme kT/e bzw. RT/F sind feste Größen, mV da sie nur aus Konstanten bestehten (e, Elementarladung 1.6×10-19C; k, Boltzmann-Faktor 60 1.38×10-23 J/K) und man die Körpertemperatur 40 mit 37°C, d.h. konstant 310 K annehmen kann. 20 ms 0 Der Term beträgt ca. 27 mV. Setzt man die 3 5 6 1 2 4 entsprechenden Werte ein, d.h. die Ionenkon- -20 zentrationen innen (ci) und außen (ca) dann er- -40 hält man das Ruhepotential der Zelle. Die Dif- -60 fusion kommt dann zum Stillstand wenn der -80 Konzentrationsunterschied durch die entstehenden Ladungsungleichgewichte kompensiert wird. Bei Ausbildung eines Erregungspotentials erhöht sich die Permeabilität für die Natriumionen. Dies führt dann zur Bildung einer positiven Überschußladung, wodurch die Zelle "umpolarisiert" wird. Die Inversion dieser Prozesse erfolgt durch entgegengesetzte Prozesse (Verlauf der Erregung s. Abb.). Wichtig: Die Nernst-Gleichung berücksichtigt nur die K+-Ionen !!! (vgl. Skript, 4.4.) 43 Frage 44: Welchen Einfluß haben die Ionenpermeabilitäten und Ionenkonzentrationen auf das Membranpotential der Zelle? Man kann generell davon ausgehen, daß im Zellinneren eine höhere K+_Ionenkonzentration herrscht, während im Extrazellulärraum die Na+-Konzentration höher ist. Die Zellmembran besitzt unterschiedliche Permeabilitäten für unterschiedliche Ionen; während sie Kalium-Ionen passieren läßt, können Chlorid-Ionen sie nicht durchdringen. Da Kalium-Ionen entsprechend dem Konzentrationsgradienten nach außen diffundieren, bildet sich mit der Zeit eine Ladungsdifferenz aus, die zum Aufbau eines Potentialunterschieds führt: Während die angegebene Nernst-Gleichung lediglich die Konzentrationen der Kalium-Ionen (intra- und extracellulär) berücksichtigt, ist die Goldmann-Gleichung wesentlich genauer und berücksichtigt gleichermaßen die Permeabilitäten für die Na+- und Cl--Ionen (a, außen; i, innen): Diese Werte schwanken je nach Art der Zelle. Typische Werte und die damit verbundenen Potentiale sind: Ionenart Innen Außen Relative Permeabilität Nernst [mV] K+ 155 4 1 -97 Na+ 12 145 0.02 +67 Cl- 4 120 0.45 -91 Goldmann [mV] -89 Wichtig: Weitere Ionen, die im Blut häufig vorkommen, wie z.B. Hydrogencarbonat (HCO3-) werden auch hier nicht berücksichtigt! (vgl. Skript, 4.4.) 44 Frage 45: Welche elektrischen Methoden der Messung der Körpertemperatur gibt es? Obwohl die meisten handelsüblichen Thermometer auf dem Prinzip basieren, daß sich Flüssigkeiten (z.B. Methanol oder im Falle des Fieberthermometers auch Quecksilber) mit ansteigender Temperatur ausdehnen, sind diese Verfahren zwar genau, erlauben aber keine kontinuierliche Temperaturmessung. Die kontinuierliche Temperaturmessung ist mit elektrischen Verfahren möglich, von denen sich im wesentlichen zwei Techniken etabliert haben. a) Widerstandsthermometer Hier nutzt man die Temperaturabhängigkeit des elektrischen Widerstandes geeigneter Materialien (Prinzip: Widerstandsmessung): entspricht dabei dem spezifischen Widerstand und ist eine Materialkonstante ( 0 entspricht bei 0°C). Diese Größen müssen wie der Temperaturkoeffizient α experimentell bestimmt werden. Allgemein gilt hier, daß bei Metallen (α > 0) der Widerstand mit der Temperatur zunimmt, während man z.B. für Salzlösungen (α < 0) das umgekehrte Verhalten findet. Zur Messung wird in der Regel eine Wheatstone-Brücke verwendet (Praktikum!). b) Thermoelement Bei einem Thermoelement werden zwei Metalldrähte aus unterschiedlichem Material zu einem Kreis verbunden. Dazwischen wird ein Amperemeter, d.h. ein Strommesser geschaltet. Besteht zwischen den Lötstellen ein Temperaturunterschied ∆T, so fließt ein Strom, der ∆T proportional ist: Durch die unterschiedliche Neigung der Elektronen, ihr Metall zu verlassen (unterschiedliche "Austrittsarbeit"), kommt es zur Ausbildung einer Kontaktspannung an den Verbindungsstellen der beiden Materialien. Nur wenn eine Temperaturdifferenz besteht, kommt es zu einem Stromfluß ("Thermostrom"). Dieser Stromfluß hängt vom Widerstand, der Art der beiden unterschiedlichen Metalle und vor allem von der Temperaturdifferenz ab (Prinzip: Strommessung): I = K (t1 - t2) (vgl. Skript, 5.1.) 45 Frage 46: Welche physikalischen Prozesse sind am Wärmetransport im Körper beteiligt und wie hängen sie von Temperaturunterschieden ab? Für den Körper ist es wichtig, daß seine Temperatur konstant bei 37°C gehalten wird, d.h. die Wärme, die bei den Stoffwechselprozessen erzeugt wird, aus dem Körper abgeführt wird: a) Wärmeleitung: Wie bei der Diffusion bildet sich ein linearer Temperaturgradient, wenn ein Körper mit einem anderen Körper in Berührung gebracht wird. Der entstehende Wärmestrom ist umso größer, je höher der Temperaturgradient ∆T/∆x und je größer die "Kontaktfläche" A ist: λ ist der sogen. Wärmeleitungskoeffizient [J/m K s] und stellt eine Materialkonstante dar (vgl. Praktikum!). b) Konvektion: Aus der Leber und den Muskeln wird die anfallende Wärme durch den Blutstrom abgeführt: P = ρ c I ∆T. Es bedeuten: ρ = Dichte von Blut; I = Volumenstromstärke. ∆T = Temperaturdifferenz "Normalblut"/"Leberblut", c, spez. Wärmekapazität. Typisches Beispiel: Warmwasserheizung. c) Verdunstung: Durch Verdunstung (Schwitzen) wird dem Körper Wärme entzogen, da Wärme für den Übergang flüssig-gas verbraucht wird (P=r ∆m/∆t). r, Spez. Verdunstungswärme; ∆m, verdunstende Flüssigkeitsmenge; ∆t, Zeit. ⇒ Heißes, trockenes Klima wird besser vertragen als schwülwarmes Klima, da die Verdunstung vom Feuchtigkeitsgehalt der Luft abhängig ist. d) Strahlung: Gemäß dem Stefan-Boltzmannschen Strahlungsgesetz (T4-Abhängigkeit: P=αAσT4) nimmt auch der menschliche Körper in Abhängigkeit von der Umgebungstemperatur Wärme in Strahlungsform auf und gibt seinerseits auch Wärme in Strahlungsform ab (Analogie: Glühbirne). Die Differenz ergibt bei Zimmertemperatur (293 K) etwa eine Strahlungs(abgabe) von 160 Watt. (vgl. Skript, 5.3.) 46 Frage 47: Wie werden Ultraschallwellen erzeugt und gemessen? Schallwellen sind Longitudinalwellen, d.h. die Schwingung der Atome/Moleküle erfolgt in Ausbreitungsrichtung. Im Unterschied zu Licht, d.h. zu elektromagnetischen Wellen, benötigen Schallwellen ein Medium, in dem sie sich ausbreiten können. Je dichter das Medium ist, desto schneller ist die Schallwelle (Schallgeschwindigkeit in Luft ~ 340 m/s, in Wasser dagegen ~1500 m/s). In Abhängigkeit von der Frequenz unterscheidet man allgemein: a) 16 Hz < f < 20 kHz: Hörbarer Bereich b) < 16 Hz: Infraschall c) > 20 kHz: Ultraschall Im einfachsten Fall genügt bereits eine Schallquelle, die wie eine Pfeife funktioniert ("Hundepfeife"). Für wissenschaftliche Zwecke werden jedoch elektische Methoden verwendet, hauptsächlich der "Reziproke Piezoelektrische Effekt". Der Piezoelektrische Effekt ("elektrisches Feuerzeug") liegt darin, daß die Deformation eines piezoelektrischen Kristalls zum Auftreten von Ladungen an den Kristallflächen führt. Umgekehrt führt das Anlegen einer Spannung an den Kristall zu seiner Deformation (bei Gleichspannung). Legt man jedoch eine hochfrequente Wechselspannung an, so kann man den Kristall zu "DickenSchwingungen" anregen, d.h. elektrische Energie in Schallenergie umwandeln. Für medizinische Anwendungen wird sehr häufig ein BaTiO3-Kristall verwendet, den man zu seiner Resonanzschwingung anregt. Die Resonanzfrequenz hängt dabei u.a. von der Dimension des Kristalls ab. Dabei kann man ein- und denselben Kristall sowohl als Sender als auch als Empfänger verwenden. Niederfrequente Ultraschallwellen lassen sich auch durch den magnetostriktiven Effekt erzeugen. Dieser beruht darauf, daß Ni-Legierungen im magnetischen Feld ihre Größe verändern. Legt man einen Ni-Sttab in eine Spule, die mit einem Hochfrequenzsender verbunden ist, so entstehen mechanische Schwingungen, die auch in den Bereich des Ultraschall fallen. Nachweisverfahren: Messung der am piezoelektrischen Kristall gebildeten Spannung Temperaturerhöhung von z.B. Wasser Ultraschallsprudel ("Wasserhöhe") Sonolumineszenz ("Lichtaussendung infolge Schwingung") (vgl. Skript, 6.2.) 47 Frage 48: Welche Frequenz und welche Intensität muß Schall haben, damit ihn das menschliche Ohr hört? Werden Töne unterschiedlicher Frequenz, aber gleicher Intensität gleich laut gehört? Zur Beantwortung der ersten Frage, s. unten; zur Beantwortung der zweiten Frage: Nein! Allgemein gilt: 16 Hz < f < 20 kHz: Hörbarer Schall-Bereich Aus dieser Angabe folgt also, daß Schallwellen außerhalb dieses Bereichs auch bei großer Intensität nicht mehr gehört werden können. Am empfindlichsten ist das menschliche Ohr bei ca. 3200 Hz! Bei dieser Frequenz (bei der im übrigen das typische Schreien eines Babys erklingt!) genügt bereits eine sehr geringe Intensität, damit der Schall wahrgenommen werden kann. In der Regel wird der sogen. Schallpegel über eine logarithmische Skala definiert: Dies beruht auf der logarithmischen Abhängigkeit der Reizempfindung von der physikalisch definierten Reizstärke ("We"Schmerzgrenze" ber-Fechner-Gesetz"). Dabei entspricht I (in W/m2) der jeweilig applizierten Schallintensität, während I0 der Hörschwelle entspricht. Obwohl mathematisch nicht kor"Hörschwelle" rekt, wird LP meistens in "Dezibel" (dB) angegeben (0 dB, Hörschwelle; 140 dB enstpricht der Schmerzgrenze). Die Abbildung zeigt den Bereich zwischen Hörschwelle und Schmerzgrenze, sowie die zugrunde liegenden Abhängigkeiten (vgl. Skript, 6.1.3. sowie Frage 49 und 50) 48 Frage 49: Haben Töne unterschiedlicher Intensität, aber gleicher Frequenz die gleiche Tonhöhe? Diese Antwort kann sehr schnell gegeben werden: JA! Wie eine Schallwelle vom Menschen empfunden wird, ist sehr vom subjektiven Empfinden des einzelnen abhängig (z.B. die Differenzierung Krach/Musik). Wie laut ein Ton empfunden wird, hängt dabei sowohl von der Frequenz wie auch der Intensität der Schallwelle ab. Auf der anderen Seite wird die Tonhöhe ausschließlich durch die Frequenz der Schallwelle bestimmt. Die Intensität hat hier keinen Einfluß! Allgemein kann man sagen, daß die Verdopplung der Frequenz einer Zunahme der Tonhöhe um eine Oktave entspricht. Zur Beschreibung der Lautstärke einer Schallwelle wird oft auch die PhonEinheit verwendet. Bei der Bezugsfrequenz von 1000 Hz sind dabei Angaben in Phon und in dB völlig äquivalent, was in der folgenden Abbildung dargestellt ist: Einige typische Werte: 0 Phon ⇒ Hörschwelle; 50 Phon ⇒ "Normale" Unterhaltung; 80 Phon ⇒ Starker Straßenverkehr; 130 Phon ⇒ Schmerzgrenze (vgl. Skript, 6.1.3.) 49 Frage 50: Welcher Zusammenhang besteht zwischen der Lautstärke und der Schallintensität? Frequenz und Intensität einer sinusförmigen Schallwelle können streng physikalisch gemessen und charakterisiert werden. Im Gegensatz dazu ist das menschliche Gehör nur zu einer stark subjektiven Einordnung der wahrgenommenen Schallwellen fähig (Lautstärke, Tonhöhe). Dabei wird die Tonhöhe durch die Frequenz, die Lautstärke aber durch die Intensität und die Frequenz bestimmt. Das menschliche Ohr ist ein Druckempfänger. Die Anpassung zwischen der Luft und dem Innenohr besorgen die Gehörknöchelchen. Das Innenohr transformiert die Schallwellen in Nervenimpulse. Das Weber-Fechnersche Gesetz sagt aus, daß zwischen Empfindung und Intensität ein logarithmischer Zusammenhang besteht, der durch die Schallintensitäten oder die Druckamplituden der Schallwelle wiedergegeben werden kann: J0 ist hier die minimale Intensität eines Tones von 1000 Hz, der gerade noch wahrgenommen wird und J ist die Intensität eines 1000 Hz-Tones, der die gleiche Empfindung hervorruft wie ein bestimmter Laut der Lautstärke L. Beispiel: Ein Motorrad verursacht eine Lautsärke von 90 Phon. Welche Lautverstärke verursachen 2 Motorräder? ⇒ Die Empfindung von "Krawall" steigt nicht linear an! (vgl. Skript, 6.1.3.) 50 Frage 51: Worauf beruht die Messung der Strömungsgeschwindigkeit des Blutes mit Ultraschallwellen? er ng Em p fä Se nd er Diese Meßmethodik beruht auf dem Doppler-Effekt . Dieser Effekt ist auch aus dem täglichen Leben bekannt und tritt dann auf, wenn Schallf0 quelle und Detektor sich gegeneinf ander bewegen: Bewegen sich Beobachter und Schallquelle gegeneinanβ der, so nimmt der Beobachter eine α veränderte Frequenz der Welle wahr. v Fährt ein z.B. Motorrad auf einen Beobachter zu (Abstand vermindert sich), so hat dieser den Eindruck, daß die Frequenz des Motors zunimmt. Enfernt sich das Motorrad wieder, so denkt man, daß die Frequenz kleiner wird. Dafür gilt (mit u: Geschwindigkeit des Fahrzeugs und c: Schallgeschwindigkeit): a) gilt dabei, wenn der Beobachter ruht und sich die Schallquelle bewegt, während b) im umgekehrten Falle gilt. f0 steht für die Frequenz der Quelle und c für die Ausbreitungsgeschwindigkeit. Die Auswertung der Blutströmung erfolgt nach folgender Gleichung: Die zweite Gleichung gilt für den Spezialfall, daß α = β, d.h. wenn der Sender gleichzeitig auch als Empfänger verwendet wird. Je höher also die Frequenzdifferenz ∆f ist, desto größer ist auch die Fließgeschwindigkeit des Blutes. Analogie: Geschwindigkeits-(Radar)-kontrollen der Polizei. (vgl. Skript, 6.3.) 51 Frage 52: Wovon hängt die Ultraschallreflexion an Gewebegrenzen ab? Beim Durchdringen eines Stoffes wird die Ultraschallintensität durch Reflexion, Streuung und Absorption geschwächt. Die absorbierte Energie wird vorwiegend in Wärme umgewandelt. Hierauf beruht auch der therapeutische Effekt des Ultraschalls. Ähnlich wie andere Verfahren (Röntgen, PET, MR usw.) kann auch Ultraschall als bildgebendes Verfahren Anwendung finden. Diese Anwendung basiert im wesentlichen auf der Reflexion des Schalls an Hindernissen. Grundsätzlich müssen hier aber die Dimensionen der zu untersuchenden Objekte groß gegen die Wellenlänge der Ultraschallwelle sein. So benötigt man z.B. zur Reflexion einer Ultraschallwelle mit einer Wellenlänge von 1mm Strukturen im cm-Bereich. Der Schwächungskoeffizient µ für Ultraschall ist abhängig von: a) Art des Gewebes b) Frequenz (µ nimmt mit größerer f zu; Ausnahme: Lungengewebe) c) Schallintensität d) Temperatur e) Größe des zu untersuchenden Objekts im Verhältnis zu λ Die Intensität des gestreuten Ultraschalls ist abhängig von: λ » r ⇒ I ~ r6 f4 λ « r ⇒ I ~ unabhängig von der Dimension des Objekts und der Wellenlänge des verwendeten Ultraschalls Die Reflexion αR ist generell abhängig von: Z wird als "Akustische Impedanz" bezeichnet. Wenn Z1 ~ Z2 tritt kaum Reflexion ein, d.h. fast die gesamte Intensität dringt ein. Da Z für Wasser und Luft sehr unterschiedlich ist (wegen der verschiedenen Dichten und Ausbreitungsgeschwindigkeiten), und dadurch fast nichts eindringen würde, ist ein "Koppelgel" notwendig, um den Übergang Luft → Wasser zu vermeiden. (vgl. Skript, 6.3.2.) 52 Frage 53: Welche Wirkung hat Ultraschall auf Gewebe? Beim Durchdringen eines Gewebes wird die Ultraschallintensität durch Reflexion, Streuung und Absorption geschwächt. Die absorbierte Energie wird vorwiegend in Wärme umgewandelt. Hierauf beruht auch der therapeutische Effekt (Erwärmung, "Mikromassage", Durchmischung). Im Gegensatz z.B. zu Infrarot, kann Ultraschall auch in tiefere Schichten eindringen und diese erwärmen. Dies wäre auch mit Hörschall möglich, jedoch besitzt Ultraschall - aufgrund seiner höheren Frequenz - auch eine wesentlich höhere Intensität. Es gilt: Wobei Z die "akustische Impedanz" ist (Produkt aus Dichte und Schallgeschwindigkeit c in einem Medium), A0 entspricht der Amplitude der Teilchenschwingung, ω entspricht der Kreisfrequenz und f der Frequenz. Die Einheit von I ist W/m2. Ähnlich wie beim radioaktiven Zerfall definiert man auch hier einige charakteristische Größen. So kann man annehmen, daß die eingestrahlte Ultraschallintensität mit zunehmender "Schichtdicke" x des Gewebes abnimmt. α ist der (Schall)-Absorptionskoeffizient des jeweiligen Gewebes: α´ ist ein frequenzunabhängiger Schwächungskoeffizient (α´ = α/f). Wie bei der Radioaktivität definiert man auch hier eine Halbwertsschichtdicke xHWT durch die die Intensität der Schallwelle auf die Hälfte reduziert wird. Aus dieser Gleichung kann man dann ableiten: (vgl. Skript, 6.3.2. und 6.1.2.) 53 Frage 54: Welcher Zusammenhang besteht zwischen der Ultraschallabsorption und der Eindringtiefe? Die von einer Schallwelle durch ein Medium transportierte Energie bleibt nicht unverändert. Ein Teil der Schallenergie wird durch unterschiedliche "Reibungsvorgänge" in Wärme umgewandelt. Hierauf beruht auch der therapeutische Effekt des Ultraschalls (Erwärmung des Gewebes bei Bestrahlung mit Ultraschall, die auch untere Schichten erreicht). Es gilt: Je größer die Absorption, desto kleiner die Eindringtiefe! Die Schallintensität nimmt in Ausbreitungsrichtung der Schallwelle gemäß dem Schallabsorptionsgesetz ab: Hier ist I(x) die Intensität am Ort x, I0 die anfängliche Intensität und α der jeweilige Absorptionskoeffizient. Graphisch ist dieser Zusammenhang in der Abbildung dargestellt: I I0 I0/2 xHWT x Für die Halbwertsschichtdicke gilt dann (analog zum radioaktiven Zerfall): Große Werte von α entsprechen also kleinen Halbwertsdicken und umgekehrt, wobei aber auch noch die Schallfrequenz auf eine komplizierte Weise eingeht (in Frage 53 diskutiert). (vgl. Skript, 6.3.2. und 6.1.2.) 54 Frage 55: Erklären Sie das Grundprinzip der Bilderzeugung der Ultraschall-Sonographie? r2 / c 2 (r1 r1 - -r2) /c Wie andere Verfahren (CT, PET, MRT usw.) findet Ultraschall als bildgebendes Verfahren eine breite Anwendung. Diese Anwendung basiert auf der Reflexion des Schalls an Hindernissen. Grundsätzlich müssen hier aber die Dimensionen der zu untersuchenden Objekte groß gegen die Wellenlänge der Ultraschallwelle sein. So benötigt man z.B. zur Reflexion einer Ultraschallwelle mit einer Wellenlänge von 1 mm Strukturen im cm-Bereich. Das Verfahren beruht auf der Reflexion des Schalls an der Grenzfläche zwischen zwei unterschiedlichen Geweben mit unterschiedlichen akustischen Impedanzen Z1 und Z2; Z ist das Produkt aus der Dichte des Mediums und der Schallgeschwindigkeit in diesem Medium. Hier definiert man einen Reflexionskoeffizienten αr und einen Transmissionskoeffizienten αd: Im Prinzip mißt man beim Amplitudenverfahren (A-Bild) die zeitlichen Unterschiede bei der Reflexion der Ultraschallwelle an unterschiedlichen Mediengrenzen. Im Gegensatz dazu ermöglicht das B-Bildverfahren die Aufnahme zweidimensionaler Schnitte durch ein Objekt; d.h. ein kugelförmiges Objekt wird als Kreis auf dem Oszilloskop dargestellt. Dies ist nur mit einem Abtastverfahren unter wechselnden Winkeln möglich, wohingegen beim A-BildVerfahren nur eine Auswertung längs einer vorgegebenen Linie möglich ist (vgl. Skript, 6.3.3.) 55 Frage 56: Erklären Sie die Bildentstehung an einer Sammel- und Zerstreuungslinse! Linsen: Durchsichtige, von gekrümmten Flächen begrenzte Körper. Linsen, die in der Mitte dicker sind als am Rande (Konvexlinsen) wirken als Sammellinsen, während Zerstreuungslinsen (Konkavlinsen) am Rand dicker sind. Es gibt einige Regeln zur Bildkonstruktion: a) Parallelstrahl wird zum Brennpunktstrahl b) Brennpunktstrahl wird zum Parallelstrahl c) Mittelpunktsstrahl erfährt keine Richtungsänderung Schon 2 Strahlen erlauben die Konstruktion eines Bildes gemäß der Abbildungsgleichung: G und B stehen dabei für die Größe des Gegenstandes bzw. seines Bildes und g und b für die Gegenstands- bzw. Bildweite. f ist die Brennweite. b) Zerstreuungslinse a) Sammellinse f G f´ f G B b B g g b Sammellinsen ergeben somit umgekehrte reale Bilder, während Zerstreuungslinsen aufrechte, virtuelle Bilder ergeben. Die Brennweiten von Zerstreuungslinsen werden immer negativ angegeben, bei Sammellinsen dagegen positiv. Der Kehrwert der Brennweite (1/f) wird als Brechkraft bezeichnet und in Dioptrie (dpt = 1/m = m-1) gemessen. Wichtig: Alle angegebenen Formeln gelten für den Fall, daß das Außenmedium eine niedrigere Brechzahl als das Linsenmaterial hat. Virtuelle Bilder sind nicht sichtbar; sie können aber durch eine zusätzliche Linse (z.B. Augenlinse bei der Lupe) sichtbar werden! (vgl. Skript, 10.1.2.) 56 Frage 57: Was versteht man unter dem Modell des reduzierten Auges und wie ensteht das Bild? Das menschliche Auge besteht aus der Hornhaut (Cornea), der Vorkammer, der Iris, der Linse, dem Glaskörper und der Netzhaut (Retina), denen unterschiedliche Brechkräfte zukommen. Dabei rührt der Hauptteil der Brechkraft des Auges (~2/3, 42 dpt) von der Cornea her, während der Linse nur ein kleiner Anteil (16 dpt) zukommt. Augeninneres Luft n=1.0 n´=1.33 F F´ f = 17.1 mm f´ = 22.8 mm Hauptebene Die zahlreichen Brechungen, die am Auge auftreten, können durch eine Brechung an der Hauptebene des Systems ersetzt werden (reduziertes Auge). Diese Hauptebene liegt ca. 1.5 mm hinter dem Corneascheitel. Die entsprechenden Brennpunkte liegen dann (beim entspannten Auge!) im Abstand von 17.1 mm vor bzw. 22.8 mm dahinter. Das Bild entsteht auf der Retina. Die Gesamtbrechkraft des Auges für die Beobachtung entfernter Gegenstände beträgt somit ca. 58 dpt (Auge entspannt). Bei Verringerunng des Abstands des Objekts muß sich die Brechkraft ändern. Die Eigenschaft des Auges, seine Brechkraft ändern zu können, um unterschiedlich weit entfernte Gegenstände scharf abbilden zu können, bezeichnet man als Akkommodation. Diese Fähigkeit geht mit dem Alter verloren, ohne daß man aber erblindet, d.h. es handelt sich um eine Verminderung der Entfernungsanpassungsfähigkeit ("Altersweitsichtigkeit"). (vgl. Skript, 10.1.3.) 57 Frage 58: Erklären Sie die Brechung an einem linsenlosen Auge! Obwohl das menschliche Auge kompliziert aufgebaut ist und aus unterschiedlichen Teilen besteht (Cornea, Vorderkammer, Iris, Linse, Glaskörper und Netzhaut), hat bereits das linsenlose Auge eine abbildende Wirkung. Hier grenzt die Cornea (Krümmungsradius ca. 8 mm) zwei Bereiche unterschiedlicher Brechzahlen voneinander ab: Augeninneres Luft n=1.0 n´=1.33 F F´ f = 24 mm f´ = 32 mm Hauptebene Dabei kann man für Luft ca. n=1 und für das Augeninnere ca. n=1.33 annehmen. Damit ergibt sich dann für die Lage von f´: Und für den anderen Brennpunkt f: Dann ergibt sich für die Brechkraft des linsenlosen Auges: Im Vergleich zur Brechkraft der Linse (D~18.7 dpt) macht also die Cornea den Haupteil der Brechkraft aus. Ein linsenloses Auge würde die Fähigkeit zur Entfernungseinstellung unmöglich machen und die beim Normalauge im ∞ liegende Grundentfernung auf einen Bereich "jenseits" ∞ verschieben (vgl. Skript, 10.1.2. und 10.1.3. und Abb. 10.7.) 58 Frage 59: Woraus ergeben sich die Grenzen des Auflösungsvermögens des Auges? Unter der Auflösung versteht man den Abstand, den 2 Punkte voneinander haben müssen, um getrennt wahrgenommen werden zu können. Erfahrungsgemäß nimmt dieser Abstand mit zunehmender Entfernung vom Auge stark zu, d.h. man sieht "ungenauer". Die Auflösungsgrenze liegt bei Kindern bei etwa 100 µm . Im Akkomodationsbereich liegt die deutliche Sehweite bei ca. 25 cm. Unter dem Sehwinkel versteht man den Winkel, unter dem man einen Gegenstand gerade noch aufgelöst erkennt; er wird von den äußersten vom Gegenstand kommenden Strahlen gebildet und bestimmt die Größe des Netzhautbildes: G δ0 g Der Sehwinkel ist definiert als Gegenstandsgröße/Gegenstandsweite bzw. genauer der Tangens dieses Verhältnisses: Für das normalsichtige Auge beträgt der minimale Sehwinkel, unter dem man 2 Punke noch getrennt wahrnehmen kann ca. 1´ (eine Winkelminute). Dieser Wert kann folgendermaßen erklärt werden: Die Linse des Auges erzeugt das Bild des Gegenstandes auf der Netzhaut, was durch die Zäpfchen bzw. Stäbchen realisiert wird. Zwei Punkte werden nur dann noch getrennt wahrgenommen, wenn sie auf 2 verschiedene, durch mindestens eine nicht-erregte Zelle getrennte, Zäpfchen bzw. Stäbchen fallen (Andere Erklärung: Wellennatur des Lichtes; Beugung des Lichtes an der Iris; vgl. auch Frage 63, ⇒ Mikroskop). Generell kann man sagen, daß optische Instrumente (z.B. Lupe) dazu beitragen, den Sehwinkel des Betrachters zu vergrößern. (vgl. Skript, 10.1.5.) 59 Frage 60: Erklären Sie die Totalreflexion und ihre Anwendung in der Endoskopie! An der Grenzfläche zweier Medien wird ein Lichtstrahl nicht nur reflektiert, sondern er tritt mit einem Teil seiner Energie in anderer Richtung in das neue Medium über, d.h. er wird gebrochen. Dabei gilt, daß der Lichtstrahl beim Übergang vom optisch dünneren (größere Lichtgeschwindigkeit c) zum optisch dichteren (kleinere c) Medium die Brechung zum Lot hin erfolgt, d.h. der Einfallswinkel wird kleiner (und umgekehrt!). Hier gilt dann folgende Gleichung: Beim Übergang dichteres → dünneres Medium kann der Einfallswinkel einen bestimmten Grenzwinkel αG nicht überschreiten, da der Sinus des Brechungswinkels maximal 1 werden kann. Dies ist für β = 90° der Fall (sin 90° = 1). α < αG α = αG α > αG Lot Lot Lot Optisch dünner (z.B. Luft) β α 90° α>αG β=α Optisch dichter (z.B. Wasser) αG Bei allen Einfallswinkeln α > αG tritt Totalreflexion ein. Die gesamte Lichtenergie wird dann nach dem Reflexionsgesetz in das erste, also das optisch dichtere Medium reflektiert. Es gilt: sin αG = 1/n. Hauptsächliche Anwendung der Totalreflexion in der Medizin sind die Lichtleiter. Das sind dünne Glasfasern, die aus Mantel (M) und Kern (K) bestehen. Das Glas der beiden unterscheidet sich in der Brechzahl (nK > nM). Zwischen Kern und Mantel kommt es zur Totalreflexion, weshalb das Licht nahezu verlustfrei weitergeleitet wird, auch wenn Krümmungen auftreten (z.B. für Endoskopie). (vgl. Skript, 10.1.1.) 60 Frage 61: Wie ändert sich die Lage des Brennpunktes bei der Akkommodation des Auges? Wie aus der Praxis bekannt, müssen viele optische Apparate "scharf" eingestellt werden. Ein Beispiel dafür stellt z.B. eine normale Kamera dar. Hier wird die Schärfe eingestellt, indem man das Objektiv verschiebt, d.h. die Bildweite der jeweiligen Gegenstandsweite anpaßt. Das Auge besitzt eine Konvexlinse. Die Scharfeinstellung erfolgt hier nicht durch Verändern der Bildweite, sondern durch Veränderung der Brennweite der Kristallinse. Das Anpassen der Brennweite an die jeweilige Gegenstandsweite geschieht unbewußt und wird als Akkommodation bezeichnet, wobei dies in anatomischer Hinsicht einer Linsenverformung entspricht. Diese Fähigkeit verliert der Mensch mit zunehmendem Alter. Bei der Akkommodation kann die größte Gegenstandsweite unendlich sein (Fernpunkt) und die kleinste (Nahpunkt) etwa 8 bis 10 cm. Dieser Wert vergrößert sich mit zunehmendem Alter ("Altersweitsichtigkeit"). Die kleinste Entfernung, auf die das Auge ohne besondere Anstrengung akkommodieren kann, nennt man deutliche Sehweite. Sie beträgt beim normalsichtigen Auge ca. 25 cm. Die Brechkraft des Auges besteht also aus einem konstanten Anteil D0 ~ 58.5 dpt und einem variablen Anteil, der aber maximal ca. 14 dpt sein kann. Daraus kann man auch den Nahpunkt des Auges berechnen. Fernpunkt und Brennpunkt sollten nach Möglichkeit zusammenfallen; wenn dies nicht mehr der Fall ist, so ist Tragen einer Brille notwendig (Bei Weitsichtigkeit ist der Augapfel zu kurz, d.h. das Bild entsteht erst hinter der Netzhaut. Dies kann durch ein Brille mit konvexer Linse (Sammellinse!) korrigiert werden. Bei Kurzsichtigkeit genau umgekehrt). (vgl. Skript, 10.1.3.) 61 Frage 62: Erklären Sie die Vergrößerungswirkung einer Lupe anhand der Bildkonstruktion! Welche Vergrößerung läßt sich mit Hilfe einer Lupe erzielen? Die Lupe ist eine Konvexlinse (Sammellinse). Der Gegenstand G befindet sich innerhalb der Brennweite (g<f). Das entstehende Bild ist dann virtuell, aufrecht und vergrößert. Weiterhin entsteht es auf der Gegenstandsseite, also vor der Linse, d.h. b<0: B F F´ G g b Dann gilt für die Normalvergrößerung der Lupe bei nicht-akkommodiertem Auge: Dabei ist s0 die deutliche Sehweite (~ 25 cm bei normalsichtigen Augen) und f die Brennweite der Lupe. Normalerweise bringt man bei der Lupe das betrachtete Objekt in den Brennpunkt und akkommodiert auf die deutliche Sehweite. Dabei ergibt sich dann ein stärkerer Vergrößerungsfaktor: Somit ist die Vergrößerungswirkung der Lupe also umso größer, je kleiner ihre Brennweite ist. Lupen lassen nur Vergrößerungen zwischen 10 und 15-fach zu. Stärkere Vergrößerungen gehen ganz entscheidend auf Kosten der Bildqualität. Wichtig: Im Sonderfall einer Sammellinse mit g < f wirkt diese als Lupe und erzeugt ein aufrechtes, vergrößertes und virtuelles Bild. Alle Okulare in optischen Geräten sind Lupen (vgl. Skript, 10.2.1. und Frage 56!) 62 Frage 63: Erklären Sie die Vergrößerungswirkung eines Lichtmikroskops anhand der Bildkonstruktion! Welche Vergrößerung läßt ein Lichtmikroskop zu? Man kann ein Mikroskop als ein aus zwei Linsen zusammengesetztes optisches System ansehen. Ein Lichtmikroskop kommt in der Regel bei Gegenstandsgrößen zwischen 1 mm und 0.1 µm zum Einsatz. Es besteht aus 2 Sammellinsen und einer Lichtquelle. Die Linse am Auge wird dabei als Okular (Brennweite f: einige cm), die Linse zum Objekt dagegen als Objektiv (Brennweite f: einige mm) bezeichnet. Folgender Strahlengang ist typisch für das Mikroskop: Objektiv Okular d = 0.61 l G f1 ' f2 λ n sin (α) = 0.61 λ A Bz f1 f2 ' D, Auflösungsgrenze; kleinster Punktabstand Λ, Wellenlänge des Lichtes N, Brechzahl des Mediums Objekt/Mikroskopobjektiv Α, Aperturwinkel = Halber Öffnungswinkels des Objektivs A, Numerische Apertur = n sin α B Die erste Linse (arbeitet ähnlich wie ein Diaprojektor) erzeugt dabei zunächst ein reelles, vergrößertes Zwischenbild zwischen Okular und Brennpunkt f2 des Okulars. Das Endbild (B) liegt dagegen vor dem Okular, ist vergrößert, virtuell und umgekehrt (im Vergleich zum betrachteten Gegenstand). Für die Gesamtvergrößerung des Mikroskops gilt: l, Tubuslänge des Mikroskops; s0, Deutlicher Sehabstand ~ 25 cm. Wichtig: Die maximale, sinnvolle Vergrößerung beim Mikroskop beträgt ca. 2000× (wegen der Wellennatur des Lichtes). (vgl. Skript, 10.2.1.) 63 Frage 64: Wie bestimmt man mit Hilfe eines Photometer die Konzentration von Lösungen? Sendet man Licht durch eine Küvette, die eine bestimmte Lösung enthält, dann wird ein Teil des Lichtes von der Substanz absorbiert, der andere durchgelassen, d.h. der Lichtstrahl wird "geschwächt". E Id Lösung I0 Aufnahme eines "Spektrums" Küvette λ In diesem Zusammenhang werden die Begriffe "Durchlässigkeit" und "Extinktion" sehr häufig gebraucht. Man hat definiert: Die Lichtintensitäten werden mit photometrische Methoden in Apparaten, die als "Photometer" bezeichnet werden, gemessen. Obwohl man sich natürlich in erster Linie für die Extinktion der gelösten Substanz interessiert, dürfte natürlich auch Küvette und Lösungsmittel einen bestimmten Beitrag liefern. Durch Messen gegen eine "Referenzküvette", die nur das Lösungsmittel enthält, kann man deren Beiträge jedoch eliminieren. Für die gelöste Substanz gilt dann das Lambert-Beersche Gesetz: Der Extinktionskoeffizient ε muß für jede Substanz ermittelt werden, indem man die Spektren von Lösungen mit bekannter Konzentration aufnimmt. Kennt man ihn (z.B. 1000 cm-1M-1), so kann man (die Schichtdicke der meisten Küvetten ist 1 cm) aus der gemessenen Extinktion die Konzentration der Lösung bestimmen. Die Fotometrie wird vorwiegend in der Biochemie verwendet, z.B. als "Optischer Test" zur Bestimmung von Enzymaktivitäten bzw. der Sauerstoffkonzentration im Blut (Soretbande und Sauerstoffbindung von Hämoglobin!). (vgl. Skript, 10.3.1.) 64 Frage 65: Mit welcher optischen Meßmethode kann man Zucker im Harn quantitativ bestimmen? Leider besitzen nicht alle Verbindungen eine Absorption im sichtbaren Wellenlängenbereich oder im UV-Bereich. Solche Substanzen wie z.B. Zucker können nicht über das Lambert-Beer Gesetz bestimmt werden. Glücklicherweise kann man die Konzentration dieser Substanzen auch anders bestimmen. Viele Substanzen sind optisch aktiv (z.B. Zucker, Aminosäuren usw.). Das bedeutet, daß sie die Ebene des linear polarisierten Lichtes (vgl. Abb.) drehen können. Ein typisches Polarimeter (vgl. Praktikum) besteht aus einer Lichtquelle, einem Polarisator (der nur Licht einer bestimmten Schwingungsebene passieren läßt), der Küvette mit der zu untersuchenden Lösung und einem Analysator, der gegenüber dem Polarisator gedreht werden kann. Ganz analog wie bei der Photometrie ist bei der Polarimetrie der Winkel um den die Probe die Schwingungsebene des Lichtes dreht der Konzentration der eingesetzten Substanz proportional: αs bezeichnet man als das spezifische Drehvermögen. Dieser Wert ist für alle Substanzen eine spezifische Materialkonstante. Hat man sie ermittelt, so kann man die Konzentration von z.B. Zucker im Harn bestimmen. Allerdings wird dieses vergleichsweise alte Verfahren in der heutigen Zeit mehr und mehr durch enzymatische Verfahren (z.B. GOD-Test) ersetzt, da enzymatische Verfahren in der Regel schneller durchzuführen und außerdem genauer und empfindlicher sind. (vgl. Skript, 10.3.2.) 65