Präambel zu den Lösungen der "65 medizinbezogenen Fragen"

Werbung
Präambel zu den Lösungen der "65 medizinbezogenen Fragen"
Die auf den folgenden Seiten dargelegten Kurzfassungen zu den "65 medizinbezogenen Fragen" für Mediziner wollen und sollen eine Hilfe für die Studierenden der Medizin an der Universität Leipzig bei der Vorbereitung auf das theoretische Abschlußtestat im Fach Physik sein.
Diese Antworten entsprechen lediglich einer MINIMALANFORDERUNG , d.h.
diese Grundlagen müssen in jedem Fall beherrscht werden und die zugrunde
liegenden physikalischen Gesetzmäßigkeiten verstanden worden sein. ZUSÄTZ LICHE FRAGEN (z.B. nach physikalischen Gesetzen, Einheiten, Ableitungen
usw.) sind jederzeit möglich und sollten auch erwartet werden!!!
Diese Sammlung kann insbesondere nicht
•
•
•
•
den Besuch der Vorlesung bzw. der Übungen ersetzen
die Auseinandersetzung mit physikalischen Prinzipien umgehen helfen
mathematisches Handwerkszeug vermitteln
als starres Schema verstanden werden. Vor dem Auswendiglernen der hier
gegebenen Fakten ohne weitere Beschäftigung mit den zugrunde liegenden
Formeln und Gesetzen muß dringendst abgeraten werden! Am Ende jeder
Seite wird auf das Skript zur Vorlesung verwiesen, in dem die physikalischen
Zusammenhänge ausführlicher dargestellt werden.
Viel Erfolg bei der Vorbereitung und bei der Prüfung!
Prof. Dr. Klaus Arnold
Frage 1: Welche Kräfte wirken auf rote Blutzellen bei der Blutsenkung und wovon hängt die Sinkgeschwindigkeit ab?
Wie bei vielen Prozessen wirken auch hier mehrere Kräfte, die sich - damit sich
eine konstante Sinkgeschwindigkeit ergibt - gegenseitig kompensieren müssen,
d.h. a = 0 ⇒ F = 0:
Nach unten wirkt (↓): Gewichtskraft (antreibende Kraft!)
Nach oben wirken (↑): Auftriebskraft und Reibungskraft
a) Gewichtskraft FG = mk × g (k=Teilchen, f=Flüssigkeit)
b) Auftrieb FA = mF × g (⇒ verdrängte Flüssigkeit)
c) Reibungskraft FR = f × v = Reibungskoeffizient × Geschwindigkeit
(mit wachsender Geschwindigkeit v wächst auch FR)
Gleichgewicht: FG - FA - FR = 0 = Fges
Am Anfang: v = 0 ⇒ FR = 0 ⇒ Fges = FG - FA = mK g - mF g = (mK - mF) g
Beschleunigungsphase: Schwierig zu modellieren! Sekundenbruchteile!
Gleichförmige Bewegung:
v = const ⇒ Fges = 0 ⇒ vs = Konstante Sinkgeschwindigkeit
Fges = (mK - mF) g - f v = 0 ⇒ (mK - mF) g = f v
Einsetzen liefert dann für die Sinkgeschwindigkeit vs:
Normale Sinkgeschwindigkeiten für Blutzellen von Gesunden liegen zwischen
3-4 mm/h; allerdings kann dieser Wert auf bis zu 100 mm/h bei bestimmten
Krankheiten ansteigen (Hauptgrund: Zellradius r wird größer ⇒ Agglutination
der Erythrozyten ⇒ "Geldrollenbildung"; Änderungen von η sind dagegen nur
von sekundärer Bedeutung!). Eine Möglichkeit vSink zu vergrößern ist die Zentrifugation (vgl. Frage 2). (vgl. Skript, 1.2.3. und 1.2.4.)
1
Frage 2: Welche Kräfte wirken bei der Zentrifugation auf ein Teilchen und wovon hängt die Teilchengeschwindigkeit ab?
Für die Kraft, die auf ein Teilchen (mit der Geschwindigkeit v) auf einer Kreisbahn mit dem Radius r wirkt, gilt:
Somit gilt dann für die Zentrifugalkraft bzw. die Zentripetalbeschleunigung:
F = m a = m ω2 r ⇒ a = ω2 r
r
R
Bei einer Zentrifuge wird ein Körper um
eine Achse "geschleudert". Es gilt:
2 2
ω, f, T ω = 2π f ⇒ aZ = 4π f R
Vernachlässigt man die gleichmäßige Senkung der Teilchen im Gravitationsfeld der
Erde, so kann man in die einfache Sedimentationsgleichung (vgl. Frage 1) für g
(Erdbeschleunigung) die Größe aZ (Zentrifugalschleunigung) einsetzen:
Die "Sedimentationskonstante" Svedberg wird zur Charakterisierung von Makromolekülen verwendet. Beispiele: Lysozym (MG=14400) ⇒ Sv=1.9×10-13 s
Rinderserumalbumin (MG=66500) ⇒ Sv=5×10-13 s. (vgl. Skript, 1.2.4.)
2
Frage 3: Wie kann man die Kraft berechnen, die der Musculus
biceps aufbringen muß, um den z.B. mit 5 kg auf der flachen Hand
belasteten Unterarm in horizontaler Lage zu halten?
Diese Frage erfordert nur wenig physikalisches Wissen, aber dafür die Kenntnis
der trigonometrischen Funktionen (Merke: sin α = Gegenkathete/Hypotenuse;
cos α = Ankathete/Hypotenuse). Folgende Zeichnung gibt die Verhältnisse
wieder:
Muskel
Beispiel:
l2 = 3 cm
l1 = 30 cm
= 80°
Fs = 200 N
FM = l3 H sin
l3
Fs
l2
l1
Im einfachsten Fall, d.h. wenn nur rechte Winkel vorliegen würden, gilt das
Hebelgesetz:
Kraft × Kraftarm = Last × Lastarm ⇒ l1 × F1 = l2 × F2
Da der Lastarm 10× so lang ist wie der Kraftarm, müßte die Kraft auch 10× so
groß sein, damit die Gleichgewichtsbedingung erfüllt ist, d.h. es wären 2000 N
notwendig.
Da die Kraft aber nicht im rechten Winkel wirkt, sondern im Winkel α = 80°
gilt für FM:
(vgl. Skript, 1.5. und 1.5.3.)
3
Frage 4: Charakterisieren Sie die 4 Grundtypen der elastischen
Verformung. Welcher Typ ist mit Querkontraktion verbunden?
Elastische Deformation: Körper nimmt nach Wegfall der deformierenden Kraft
wieder seine ursprüngliche Form an.
∆a/2
F
F
l
β
∆l
Einfache Dehnung
Scherung
• Einfache Dehnung
Generell gilt: Spannung σ = Kraft/Fläche [N/m2]
Dabei gilt ε = ∆l/l = Dehnung = Relative Längenänderung.
Dehnung ist verbunden mit Querkontraktion (vgl. z.B. ein Gummiband, das in
die Länge gezogen wird)! Hier definiert man die sogen. Poissonsche Zahl:
εQ = ∆a/a (a=Kantenlänge) und εQ = -µ ε
• Biegung
z.B. kreisförmiges Verbiegen eines Stabes
• Allseitige Kompression (allseitige Belastung eines Würfels, z. B. Tauchen
von U-Booten)
• Scherung (vgl. obige Abbildung)
• Verdrillung (Torsion): Hierbei wird ein Drehmoment z.B. auf einen Stab
ausgeübt; dies kann als eine räumlich veränderliche Scherung beschrieben
werden (vgl. Skript, 2.1.)
4
Frage 5: Welche Unterschiede bestehen zwischen rein elastischem
und viskoelastischem Verhalten?
Annahme: Die Kraft soll nur sehr kurzzeitig wirken und dann wieder voll-
Kraft F
ständig auf Null absinken. In dem physikalischen Modell der viskoelastischen
Verformung soll eine elastische "Feder" im folgenden die elastischen Eigenschaften verkörpern, während die Bewegung eines Kolbens in Öl die viskösen
Eigenschaften beschreibt.
Graphische Darstellung (entlang der x-Achse ist in allen Fällen die Zeit aufgetragen):
Zeitabhängigkeit der Kraftwirkung
Verformung ∆I
Zeit t
Verhalten
"Ersatzschaltbild"
F
"Elastisch"
"Feder"
Verformung ∆I
Zeit t
F
"Viskös"
"Kolbenbewegung
in Öl""
Verformung ∆I
Zeit t
"Viskoelastisch"
F
Kopplung beider
Elemente
Zeit t
Beispiele:
• Elastisch: Elastische Feder bzw. Gummiband
• Viskös: Kolben in "zäher" Flüssigkeit
• Viskoelastisch: z.B. Sehnen und Bänder in den Gelenken (wichtig ist hier,
daß es bei nur kurzzeitiger Belastung zu keiner vollständigen Verformung
kommt) ⇒ Stoßdämpfer. (vgl. Skript, 2.3.)
5
Frage 6: Welche Bedeutung haben viskoelastische Eigenschaften
von Sehnen, Bändern usw. für die Funktion des Bewegungsapparates?
Diese Frage ist eine Erweiterung von Frage 5 und kann teilweise gleich
beantwortet werden, umfaßt aber zusätzlich die physiologischen Eigenschaften.
Die Verknüpfung der beiden Eigenschaften sowohl der "Feder" wie auch des
"Kolbens in Öl" (vgl. Frage 5) führt zu stark gedämpften Bewegungen der
Sehnen, Bänder, Knorpel usw. (⇒ Stoßdämpfer-Eigenschaft).
Eine Bewegung kann unmöglich rein viskös sein, da hier eine Verformung
faktisch nicht zurückgehen würde (d.h. "Springen" und das daraus resultierende
"Zusammendrücken" des Knorpels oder Dehnen der Sehnen und Gelenke wäre
nur einmal möglich, da die Verformung ja nicht reversibel wäre).
Die Einwirkung einer starken äußeren Kraft würde bei rein elastischem Verhalten zu großen Deformationen führen die zu Schädigungen des Materials führen
können. Eine solche Überbeanspruchung z.B. der Bänder oder der Sehnen wäre
extrem ungünstig.
Viskoelastisches Verhalten ist die ideale Verknüpfung von elastischer und
visköser Verformung für das Funktionieren unseres Bewegungsapparates; nur
auf diese Weise können kurzzeitige Stöße abgefangen werden. Hier wirken
gleichzeitig die "Feder" und der "Kolben in Öl" gegen den Kraftstoß, so daß
eine geringere Dehnung entsteht. Die Kraftstöße sind im Vergleich zu dem
viskoelastischen Dehnungsvorgang von so kurzer Dauer, daß die Dehnung
vergleichsweise gering ist.
(vgl. Skript, 2.3.)
6
Frage 7: Erklären Sie die Bedeutung isochorer, isobarer und isothermer Veränderungen bei der Atmung?
Für viele Betrachtungen kann Luft (besteht zu ca. 80% aus N2 und ca. 20% aus
O2) als ein ideales Gas angesehen werden, d.h. man nimmt an, daß keine Wechselwirkungen zwischen den einzelnen Gasmolekülen vorliegen. Hier gilt das
sogen. "Ideale Gasgesetz" (meist mit T = 310 K und p = 100 kPa):
Folgende Prozesse besitzen größere Bedeutung:
a) Isotherm ⇒ T=const; ⇒ pV=const
b) Isobar ⇒ p=const; ⇒ V/T=const
c) Isochor ⇒ V=const; ⇒ p/T=const
d) Adiabatisch, d.h. kein Energieaustausch mit Umgebung!
Die Atmung verläuft nicht isochor, aber weitgehend isotherm und isobar.
Dabei wird bei einem normalen Atemzug ca. 0,5 l Luft ausgetauscht. Zur
Definition weiterer wichtiger Begriffe s. folgende Abbildung:
Die Volumina im Spirometer und in der Lunge sind dabei verschieden ⇒ Normierung auf Normalbedingungen erforderlich! Man sollte sich auch
vergegenwärtigen, daß der Gasaustausch über die Haut beim Menschen nur ca.
1% ausmacht, während es beim Frosch ~30% sind. (vgl. Skript, 3.1.)
7
Frage 8: Welche physikalische Ursache haben die folgenden Blutdruckdifferenzen?
a) Zwischen weiten Kopf- und Fußblutgefäßen?
Wie z.B. in einem Standzylinder, setzt sich auch im Menschen der Druck aus
zwei unterschiedlichen Basis-Anteilen zusammen, dem äußeren Druck (p0) und
dem Druck der Flüssigkeitssäule, der lediglich von der "Füllhöhe" der Flüssigkeit (d.h. des Blutes) abhängig ist (hydrostatischer Druck): p = p0 + ρgh.
Somit nimmt der Blutdruck vom Kopf zu den Füßen zu. Zusätzlich ist der
Druck durch die Pumpaktivität des Herzens zu berücksichtigen. Der "Nullpunkt"
liegt in Herzhöhe; oberhalb des Herzens herrscht Unterdruck!
b) Zwischen Systole und Diastole?
Die periodische Ausstoßung von Blut aus dem Herzen führt zur periodischen
Änderung des Druckcs in den Arterien zwischen dem systolischen und dem
diastolischen Druck. Wichtigste Anwendung: Blutdruckmeß-Methode nach
Riva-Rocci (vgl. Frage 13).
c) Zwischen Arterien und Venen?
Der arterielle Blutdruck ist höher als der venöse. Dieser Abfall ergibt sich aus
den Reibungsverlusten, die in der Strömungsrichtung des Blutes vom arteriellen
zum venösen Teil auftreten. Die Reibungsverluste hängen vom Gefäßquerschnitt, der Viskosität des Blutes und der Gefäßlänge ab. Der
Durchmesser der Aorta beträgt ca. 2.5 cm, der
Durchmesser aller Arterien ist hingegen ca.
1000× so groß ⇒ v in Kapillaren viel kleiner
(ca. 0.3 mm/s) als in der Aorta (ca. 0.5 m/s) ⇒
Leitwert der Kapillaren viel kleiner ⇒ Druck in
Kapillaren viel kleiner als in der Aorta!
(vgl. Skript, 3.1.6.)
8
Frage 9: Welcher Zusammenhang besteht zwischen dem Partialdruck eines Gases und seiner Konzentration im Blut?
Steht ein Gas oder ein Gasgemisch (wie
z.B. Luft, die im wesentlichen aus Stick2
2
stoff (~ 80%) und Sauerstoff (~ 20 %) und
geringeren Mengen an Kohlendioxid besteht) im Kontakt mit einer Flüssigkeit
(z.B. Blut), so wird sich eine bestimmte
Menge des Gases in der Flüssigkeit lösen.
Die Konzentration des gelösten Gases ci
ist direkt proportional zum Partialdruck
pi des Gases über der Flüssigkeit. Die ProWasser
portionalitätskonstante α wird als Bunsenscher Löslichkeitskoeffizient bezeichnet:
ci = α × pi ; [α] = mol × m-3 × Pa-1.
In physiologischer Hinsicht ist von Bedeutung, daß sich Kohlendioxid (CO2) etwa 25-fach besser löst als Sauerstoff, weshalb die Natur ein zusätzliches Transportsystem für den Sauerstoff (über das Hämoglobin) im Organismus schaffen mußte.
Somit ist die Bindung des Sauerstoffs an
das Hämoglobin entscheidend für den O2-Transport im Organismus.
Bemerkenswerterweise nimmt die Löslichkeit von Gasen mit zunehmender
Temperatur ab; so läßt sich z.B. der CO2-Gehalt einer wäßrigen Lösung durch
Heizen vermindern (Mineralwasser, das in der Sonne stand, hat einiges an
"Kohlensäure" verloren!). ⇒ α ~ 1/T
Um eine Lösung zu entgasen, sollte man also Vakuum anlegen und das Gas
ausheizen (vgl. der Kohlensäuregehalt einer Sprudelflasche an einem heißen
Sommertag)! (vgl. Skript, 3.2.4.)
N
CO2
O
Gelöste
Gase
9
Frage 10: Was ist die Viskosität und welchen Einfluß hat sie auf die
Blutströmung?
Wenn sich ein Körper in einer Flüssigkeit bewegt, wirkt auf ihn eine Reibungskraft FR, die proportional zum Geschwindigkeitsgradienten (∆v/∆x), der
Querschnittsfläche A und der Viskosität η ist: FR = η A (∆v/∆x).
Die Viskosität η [Pa s = N/m2 s] ist ein Maß für die innere Reibung bzw. die
"Zähigkeit" einer reinen Flüssigkeit bzw. einer Lösung; diese Größe nimmt in
hohem Maße mit der Temperaur ab. So ist z.B. Öl deutlich visköser als reines
Wasser (bei gleicher Temperatur). Bei Lösungen hängt die Viskosität von einer
Vielzahl von Faktoren ab, wie z.B.
- der Konzentration des gelösten Stoffes
- der Ionenstärke (z.B. Konzentration an gelösten Na+-Ionen)
- dem Molekulargewicht der gelösten Substanzen (höhermolekulare Substanzen ergeben wesentlich viskosere Lösungen als niedermolekulare Substanzen)
Das Zustandekommen von η kann man sich so vorstellen, daß sich in einer strömenden Flüssigkeit die unterschiedlichen Flüssigkeitsschichten aneinander
"reiben". Die "Reibung" ist dabei am Rand eines Gefäßes am größten und
somit auch die Geschwindigkeit minimal (v = 0 bei benetzenden Flüssigkeiten)!
Für die Stromstärke I [m3/s] einer Flüssigkeit durch ein Rohr (in physiologischer Hinsicht: Strömung des Blutes durch eine Ader) mit dem Querschnitt A
(πr2) und der Länge l, gilt beim Anliegen einer Druckdifferenz ∆p:
Diese (extrem wichtige!) Formel stellt das Hagen-Poiseuillesche Gesetz dar.
Die wichtigste Aussage daraus ist, daß der Radius in der 4. Potenz ein geht, d.h.
bei einer Verdopplung des "Röhrenquerschnittes" die 16-fache Flüssigkeitsmenge pro Zeiteinheit fließt. Je höher die Viskosität der Flüssigkeit ist (Relevanz des "Aderlaß"), desto weniger Flüssigkeit fließt auch pro Zeiteinheit. (vgl.
Skript, 3.3.4. und 3.3.5.)
10
Frage 11: Welche Bedeutung hat die Oberflächenspannung für die
Funktion der Lungenalveolen?
Flüssigkeiten haben grundsätzlich das Bestreben
Kugelform anzunehmen und so der umgebenden Luft nur eine sehr geringe Oberfläche auszusetzen (stabilster Zustand). Das gilt auch,
wenn Flüssigkeiten unterschiedlicher Polarität
gemischt werden (z.B. Öltröpfchen in Wasser).
Der Grund dafür ist die sogen. Kohäsionskraft. Diese Kraft zieht ein Teilchen an der
Oberfläche immer wieder zurück in das Innere
der Flüssigkeit. Im Inneren der Flüssigkeit
kompensieren sich diese Kräfte jedoch gegenseitig, so daß hier das Teilchen keine Kräfte
erfährt (vgl. oben). Die Messung der Oberflächenspannung σ = ∆W/∆A kann z.B. mit
der Drahtbügelmethode erfolgen (s. limks). Hier
wird die Kraft bestimmt, die erforderlich ist,
eine bestimmte Vergrößerung einer Oberfläche
zu erzielen: F = 2 σ l mit σ = ∆W/∆A. Man
sollte sich auch noch vergegenwärtigen, daß der Druck umgekehrt proportional
zum Radius (z.B. einer Seifenblase) ist (p = 2σ/r). Verbindet man z.B. eine
große und eine kleine Seifenblase, so "bläst" die kleine díe größere auf.
In der Lunge tragen die einzelnen Alveolen einen Flüssigkeitsfilm, der durch
seine ihm eigene Oberflächenspannung zu einer Zugspannung an dem Lungengewebe führt, die durch die Atemmuskulatur bei der Einatmung und Ausdehnung der Alvea überwunden werden muß. Um diese Kraft gering zu halten,
produziert das Lungengewebe eine oberflächenaktive Substanz, die die Oberflächenspannung auf ca. 10% heruntersetzt, um so auch die notwendige Energie
herabzusetzen. Wichtig: Atemnotsyndrom bei Frühgeborenen bei fehlenden
oberflächenaktiven Substanzen ("Lungensurfactant"). (vgl. Skript, 3.1.7.)
11
Frage 12: Was versteht man unter oberflächenaktiven Stoffen?
Bezug zur Frage 11: Oberflächenspannung σ = ∆W/∆A
Jeder reine, flüssige Stoff besitzt bei einer gegebenen Temperatur eine charakteristische Oberflächenspannung, die aus der Wirkung der Kohäsionskräfte
zwischen den Flüssigkeitsmolekülen entsteht. Gleiches gilt an der Grenzfläche
zwischen nichtmischbaren Flüssigkeiten. Der Wert dieser Oberflächen- oder
Grenzflächenspannung wird durch gelöste Stoffe beeinflußt. Im Hinblick auf
Wasser beeinflussen Salze, organische Säuren mit kleinen Resten (z.B. Essigsäure) oder auch stark hydrophile Substanzen wie z.B. Zucker oder Glycerin die
Oberflächenspannung nur unwesentlich. Diese Stoffe nennt man kapillarinaktiv.
Benetzung: Adhäsion zwischen Flüssigkeit und und
Festkörper größer als die Kohäsion in der Flüssigkeit.
Benetzende Flüssigkeit: Flüssigkeit steigt hoch!
Nicht-benetzende Flüssigkeit: Absenkung!
Im Gegensatz dazu senken schon geringe Konzentrationen an langkettigen
aliphatischen Säuren oder Alkoholen die Oberflächenspannung ganz beträchtlich. Diese Stoffe nennt man kapillaraktiv oder oberflächenaktiv. Die moderne
Bezeichnung ist Tenside; sie sind in allen Waschmitteln enthalten.
Alle derartigen Stoffe haben ein gemeinsames Strukturmerkmal: Sie besitzen
einen stark hydrophilen "Kopf" (z.B. Carboxylat- oder Sulfonatgruppen) und
einen langen hydrophoben "Schwanz". Dabei orientieren sich in wäßriger
Lösung diese Substanzen so, daß ihre hydrophoben Reste einen möglichst
geringen Kontakt zum Wasser besitzen, was auch einem Zustand geringster
Energie entspricht (z.B. Aufbau einer Zellmembran) (vgl. auch Lungenalveolen,
Gallensäuren). Liposomen sind augenblicklich als "Fett-freundliche" Verpackung für verschiedene Pharmaka groß im Gespräch (wie gelangen Wirkstoffe
in die Zellen?). (vgl. Skript, 3.1.7.)
12
Frage 13: Beschreiben und erklären Sie die Messung des systolischen und diastolischen Blutdruckes nach Riva-Rocci!
Der Blutdruck ist nicht konstant, sondern schwankt mit der Pulsfrequenz
zwischen einem Maximalwert (systolischer Druck, ps) und einem Minimalwert
(diastolischer Druck, pd). Richtwerte (Armarterie in Herzhöhe): ~ 70-120 mm Hg.
Blutdruckmeßverfahren nach Riva-Rocci:
-
-
-
-
Eine feste, nicht dehnbare Manschette
wird um den Arm gelegt
Unter der Manschette befindet sich
ein aufblasbarer Gummischlauch, der
mit einem Manometer verbunden ist
p > ps: Armader wird vollständig abgedrückt (Geräusche treten nicht auf).
ps > p > pd: Blutdruck zwischen dem
diastolischen und dem systolischen
Druck. Bei jedem Herzschlag (=
größter Druck) wird Arterie kurz geöffnet.
Das beim Einströmen des Blutes verursachte Geräusch ("Korotkoff´sches
Geräusch") läßt sich mit einem Stethoskop in der Ellenbeuge verfolgen
(Einströmgeschwindigkeit sehr groß!)
Einsetzen des Geräusches ⇒ Systolischer Druck (turbulentes Profil)
Verschwinden des Geräusches ⇒ Diastolischer Druck (Übergang von turbulenter zu laminarer Strömung).
Wichtig: Oberhalb pSyst ⇒ Keine Strömung; zwischen pSyst und pDiast impulsartige Öffnung der Gefäße ⇒ Turbulenz verursacht Geräusche (vgl. Skript,
3.1.3.).
13
Frage 14: Welche Eigenschaften des Gefäßsystems und des Blutes beeinflussen die Blutstromstärke?
Besteht zwischen den Enden einer zylindrischen Röhre mit dem Querschnitt A
und der Länge l eine Druckdifferenz ∆p = p1-p2, so wirkt eine Kraft F = A∆p,
wobei die Fläche A = πr2 gesetzt werden kann. Dieser ist jedoch eine bestimmte
Reibungskraft, die der Strömungsgeschwindigkeit proportional ist, entgegengerichtet.
Für viele Flüssigkeiten (z.B. Wasser und die meisten wäßrigen Lösungen, also
auch Blut), gilt das sogen. Hagen-Poiseuillesche Gesetz:
In der Gleichung bedeuten:
"Mechanische" Stromstärke (Blutstromstärke I = ∆V/∆t) mit I = ∆p/R (in
Analogie zum Ohmschen Gesetz)
∆V: Durchgeflossenes Volumen [m3]
∆t: Zeitintervall [s]
r:
Radius des Gefäßes [m]
∆p: Druckdifferenz [N/m2] zwischen Anfang und Ende des Gefäßes
η: Viskosität der Lösung (z.B. Blut) [Pa s]; [Pa]=N/m2. Die Viskosität von
Wasser beträgt ca. 1mPa s.
l:
Länge des Gefäßes [m]
I:
Damit das angegebene Gesetz auch wirklich gilt, muß es sich u.a. um Newtonsche Flüssigkeiten handeln (η=const), das Rohr muß starr sein, die Strömung
muß laminar sein (keine Wirbel!) und das Rohr muß waagerecht liegen (d.h.
das Gesetz gilt unter physiologischen Bedingungen nicht exakt!). (vgl. Skript,
3.3. und v.a. 3.3.5.)
14
Frage 15: Wie können Sie den Druckabfall in Kapillaren berechnen?
Eine Kapillare ist im einfachsten Fall ein dünnes Rohr. Infolge der Reibungsverluste in der Strömung verringert sich der Druck in der Kapillare entlang der
Strömungsrichtung.
Wenn die Strömung laminar (keine "Verwirbelung der einzelnen Flüssigkeitsschichten") ist, hängt der Druckabfall ∆p = p1 - p2 von der Viskosität η der
Flüssigkeit, der Länge l der Kapillare und dem Radius der Kapillare ab.
Es gilt das Hagen-Poiseuillesche Gesetz für die transportierte Flüssigkeitsmenge:
Daraus ergibt sich für den Druckverlust:
Der Druckabfall wird vergrößert durch Erhöhung von η, l und I, sowie der
Verringerung von r. Besonders dramatisch ist der Einfluß von r, weil hier die 4.
Potenz auftritt.
Druckverlust bedeutet gleichzeitig eine Verringerung des Bluttransportes in den
Kapillaren. Diese Eigenschaften werden für die Regulation der Durchblutung
der Blutgefäße genutzt. Die Gesamtdurchblutung ist dabei in allen Gefäßabschnitten gleich. Nur die Verteilung auf die Einzelgefäße ist unterschiedlich. Die
Verringerung des Gefäßradius durch Ablagerungen in den Gefäßen ("Arteriosklerotische Plaques") sind besonders für die Blutgefäße im Herzen und im
Gehirn fatal.
(vgl. Skript, 3.3.)
15
Frage 16: Wie verändert sich die Blutstromstärke bei Verdoppelung des
Durchmessers der Kapillare?
Eine Kapillare ist ein dünnes Rohr, das auch z.B. an einem Ende dünner als am
anderen Ende sein kann:
v1
v2
p1
p2
Da die Kontinuitätsgleichung besagt, daß das pro Zeiteinheit fließende Volumen
konstant sein muß, muß an Verengungen auch eine Erhöhung der Strömungsgeschwindigkeit erfolgen:
Es gilt für die oben gezeigte Anordnung das Hagen-Poiseuillesche Gesetz:
Hier hat man außerdem auch einen "Strömungswiderstand" R (in Anlehnung an
das Ohmsche Gesetz) definiert:
Da in der Gleichung der Radius (der Durchmesser ist ja lediglich 2 r, d.h. der
gleiche Wert bis auf einen festen Zahlenfaktor) in der vierten Potenz eingeht,
muß man folgern, daß bei Verdopplung des Radius die Blutstromstärke auf das
16-fache (24) ansteigt. Oder kürzer ausgedrückt: I ~ r4 (vgl. Skript, 3.3.).
16
Frage 17: Welche Veränderungen der Blutströmung treten in einem Blutgefäß in verengten oder erweiterten Gebieten auf?
Da die Kontinuitätsgleichung besagt, daß das pro Zeiteinheit fließende Volumen konstant sein muß, muß an Verengungen auch eine Erhöhung der Strömungsgeschwindigkeit erfolgen (z.B. durch Erhöhung der Druckdifferenz).
v1
v2
A1
A2
p2
p1
Bei Verringerung der Querschnittsfläche eines Blutgefäßes von A1 auf A2
(A2 < A1) treten folgende Veränderungen der Strömung auf:
1) Erhöhung der Strömungsgeschwindigkeit von v1 auf v2 und Verringerung
des Druckes von p1 auf p2 (p1 > p2)
2) Änderung des Druckes gemäß dem Gesetz von Bernoulli, wonach der
herrschende Gesamtdruck konstant ist und sich aus 3 Anteilen zusammensetzt: Statischer Druck + hydrostatischer Druck + hydrodynamischer Druck:
Bei einem "horizontalen" Gefäß gilt dann vereinfacht (v, Strömungsgeschwindigkeit):
A1 > A2 ⇒ v2 > v1 ⇒ In 2 muß der statische Druck sinken ⇒ p1 > p2 ⇒ "Hydrodynamisches Paradoxon" (vgl. Skript, 3.3.)
17
Frage 18: Was versteht man unter einem elektrischen Dipol und wovon hängt
das Dipolmoment ab?
Generell werden zwei getrennte Ladungen q mit einem entgegengesetzten
Vorzeichen (also eine positive und eine negative Ladung) als "Dipol" bezeichnet. Ihr Dipolmoment ist definiert als:
+
+q
l
-
p=ql
-q
Dabei bedeuten:
p = Dipolmoment [C m]
q = Ladung [C]
l = Abstand der beiden Ladungen [m]
Dabei sollte man noch bedenken, daß viele polare Moleküle wie z.B. Wasser
oder Kohlenmonoxid (d.h. Moleküle mit Atomen stark unterschiedlicher Elektronegativitäten) ein permanentes Dipolmoment besitzen, d.h. sich in einem
elektrischen Feld ausrichten. Da derartige Dipolmomente aber meistens extrem
klein sind, benutzt man dann als Einheit sehr häufig das "Debye", wobei gilt:
1 Debye = 3.33x10-30 C m.
Jeder Stoff erhält in einem elektrischen Feld durch Ladungsverschiebung ein
induziertes elektrisches Moment. Erfolgt diese Verschiebung nur innerhalb der
einzelnen Moleküle (Dielektrikum), so wird der Effekt auch als "Polarisation"
bezeichnet.
Ein solches elektrisches Dipolmoment bildet sich während der Ausbildung der
Herzerregung auch auf dem Herzen aus den negativ und den positiv geladenen
Oberflächen des Myokards in den erregten und nicht erregten Bereichen aus.
Während einer Herzperiode ändern sich sowohl die Größe als auch die Richtung
des Gesamtdipolmomentes des Herzens. Diese Veränderungen sind die Grundlage der EKG-Aufzeichnung.
Einige typische Beispiele:
Wasser (εr ~ 80); Methanol (εr ~ 34); Aceton (εr ~ 20); Luft (εr ~ 1)
(vgl. Skript, 7.1.2.)
18
Frage 19: Welche Potentialverteilungen entstehen in der Umgebung des
Herzens?
Nicht nur elektrische Bauteile, sondern
auch der Mensch, oder zumindest
doch bestimmte Organe besitzen ein
elektrisches Dipolmoment, so z.B.
das menschliche Herz in bestimmten
Erregungsphasen.
Das elektrische Feld des Herzens kann
nach seiner anatomischen Lage als
Dipolfeld dargestellt werden, wobei
man aber meistens die übersichtlicheren Äquipotentialflächen verwendet,
wie es in der Abbildung auch dargestellt worden ist.
a) Normal
b) Herzkranker
Die wichigste Anwendung ist das
R
EKG, wobei sich das elektrische Feld
T
P
des Herzens im Verlauf der Kontraktion verändert (P: Erregung der VorQ S
hofmuskulatur; R: Maximale AnspanFrequenz
Frequenz
nung (+Kammermuskulatur); P-q: Periode vom Sinus zu allen Fasern). Da die Potential-Unterschiede hier am größten
sind, wird folgendermaßen abgeleitet: (1) Rechter Arm → Linker Arm (2)
Rechter Arm → Linkes Bein und (3) Linker Arm → Linkes Bein.
Wichtig: Die Herzfrequenz liegt bei ca. 1.3 Hz (~80 Schläge pro Minute).
Äquipotentialflächen stehen senkrecht auf den Feldlinien. Zwischen unterschiedlichen Potentialen bestehen Spannungen, die in Form des EKG registriert
werden (vgl. Skript, 7.1.5.3.)
19
Frage 20: Wovon hängt die elektrische Stromstärke einer elektrolytischen
Lösung ab und welche Kräfte wirken auf die Ionen?
Unter einer elektrolytischen Lösung versteht man eine (in der Regel) wäßrige
Lösung, die eine Verbindung enthält, die in Ionen dissoziiert. Darunter sollen
hier in erster Linie starke Elektrolyte, die vollständig dissoziiert sind, also
z.B. NaCl oder CaCl2, verstanden werden. Legt man eine Spannung an, so
wandern die positiv geladenen Kationen zur Kathode, während die negativ
geladenen Anionen zur Anode wandern. Nach einer Beschleunigungsphase
wird die Geschwindigkeit gleichförmig, da dann die Reibung die Beschleunigung kompensiert. Dann gilt FRes=0 und
In der Gleichung bedeuten: e: Elementarladung (1.6×10-19C); E: Elektrische
Feldstärke (vgl. Gleichungen für den Plattenkondensator); v: Wanderungsgeschwindigkeit; f: Reibungszahl).
Die Größe µ (das Verhältnis aus Ladung und Reibungszahl) wird als Ionenbeweglichkeit bezeichnet. Ihre Einheit ist: [m2/Vs]. Diese Werte sind in der Regel
sehr klein, z.B. µ Na~4.6×10-8 m2/Vs. Der dabei meßbare Stromfluß, der durch die
Entladung der Ionen an den Elektroden entsteht, ist z.B. in einer NaCl-Lösung
gegeben durch:
Dabei ist c die Konzentration, A die Querschnittsfläche, durch die die Ionen
fließen und F die sogen. Faraday-Konstante. Diese gibt das Produkt aus
Avogadro-Konstante und Elementarladung des Elektrons wieder, d.h. F = 6×1023
mol-1 x 1.6×10-19 C ~ 96000 C/mol. Schwieriger wird der Fall, wenn schwache
Elektrolyte, z.B. Acetat eingesetzt werden, da diese nur unvollständig dissoziiert sind.
(vgl. Skript, 7.2.2.)
20
Frage 21: Wie hängt die elektrische Impedanz von biologischem Gewebe von
der Frequenz der Wechselspannung ab?
In der Regel besteht zwischen Strom und Spannung im Wechselstromkreis eine
Phasendifferenz. Deshalb muß der Wechselstromwiderstand durch zwei
Größen, den Betrag Z und den Phasenwinkel ϕ beschrieben werden. Für die
elektrische Impedanz, d.h. den Wechselstromwiderstand gilt das Ohmsche
Gesetz entsprechend, d.h. unter Verwendung der Effektivgrößen für Strom und
Spannung:
Wechselstromwiderstände lassen sich aus drei verschiedenen Anteilen zusammensetzen, aus dem Ohmschen (unabhängig von der Frequenz), dem kapazitiven (Kondensator) und dem induktiven (Spule) Widerstand. Für die beiden
letzten Größen gilt:
Der Wechselstromwiderstand des biologischen Gewebes
setzt sich aus Ohmschen (el. Widerstand der Flüssigkeit
C im Gewebe) und kapazitivem (el. Kapazität der ZellmemR
bran) Widerstand in einer Parallelschaltung zusammen.
Bei niedrigen Frequenzen ist der kapazitive Widerstand
sehr hoch (ZC = 1/ωC). Der Strom fließt deshalb über den
Ohmschen Widerstand des Gewebes. Bei hohen Frequenzen ist der kapazitive Widerstand gering und der Strom fließt hauptsächlich über
den kapazitiven Widerstand. Bei Anwendung von Strömen in der Physiotherapie
kann es beim Einsatz von niederfrequenten Strömen zu starken Erhitzungen des
Gewebes kommen (Fettbelastung), weil vor allem der Ohmsche Widerstand
wirksam wird. (vgl. Skript, 7.5.)
21
Frage 22: Worauf beruhen die therapeutischen Wirkungen des elektrischen
Stromes?
Obwohl der elektrische Strom in der Regel auch stark gesundheitsgefährdende
Aspekte beinhaltet (z.B. durch Elektrolyse körpereigener Substanzen, durch
Reizwirkung auf Nerven und Muskeln, sowie durch eine erhöhte Wärmebelastung des Organismus), gibt es wichtige Einsatzmöglichkeiten in der Medizin:
a) Hochfrequenztherapie (die wichtigste Anwendung)
Durch Anlegen von hochfrequentem Wechselstrom erreicht man, daß Strom
durch den Körper fließt. Dies führt zu einer gezielten Erwärmung des
Körperinneren ("Diathermie"). Der Einsatz von Hochfrequenz ist deshalb
erforderlich, da sich bei kleineren Frequenzen das Fettgewebe wesentlich
stärker als das Muskelgewebe (gerade das soll aber erwärmt werden!)
erwärmen würde (Effekte: Erwärmung durch Bewegung der Ionen ⇒ Ionenströme, schnelle Schwingung der Ionen um die Ruhelage bei hohen
Frequenzen. Keine Polarisation der Zellen).
b) Reizwirkung auf Nerven/Muskeln (el. Polarisation der Zelle)
Durch Anlegen eines niederfrequenten Wechselstromes lassen sich einige
therapeutische Anwendungen realisieren, wie z.B. Reizstromtherapie (Stimulation von Muskeln), Herzschrittmacher (Ständige Stimulation des Herzmuskels)und Elektroschock (Defibrillator)
c) Elektrochirurgie (el. Skalpell; endoskopische Chirurgie)
Einsatz hochfrequenter Wechselströme zum Schneiden von Geweben oder
Verschließen von Gefäßen (Große Elektrode/Nadelelektrode), Überhitzung
und Zerstörung von Zellen (Tumor!).
d) Elektroporation
Durch Einwirkung von Stromimpulsen lassen sich kurzzeitig Poren in den
Zellmembranen öffnen, die sich aber wieder von selbst schließen. Dadurch
soll z.B. der Transport bestimmter Pharmaka in die Zelle ermöglicht werden
(was aber noch ziemlich umstritten ist).
Merke: Der menschliche Körper hat von Arm zu Arm etwa einen Widerstand
von 1000 Ω. Da bereits 50 mA tödlich wirken können (bereits 10 mA spürt
man), sind also schon Spannungen von 50 V sehr gefährlich. (vgl. Skript, 7.6.)
22
Frage 23: Was versteht man unter Bandbreite und Grenzfrequenz eines
elektrischen Verstärkers und in welcher Beziehung stehen sie zu einer verzerrungsfreien Signalübertragung (z.B. EKG)?
Ein Verstärker besteht in der Regel aus mehreren Verstärkerstufen (Transistoren), die durch Koppelglieder (RC-Glied) untereinander verbunden sind. Der
Verstärkungsgrad ist stark von der Frequenz abhängig (Bandbreite, Frequenzbereich). Die zu verstärkenden Signale können sinusförmige Wechselspannungen
sein, aber auch kompliziertere Signale, zu denen ein Frequenzspektrum von
Oberwellen gehört, z.B. ein EKG-Signal. Der Verstärkungsgrad wird folgendermaßen definiert:
R-C-Glieder stellen einen sogen. "Hochpass" dar, d.h. niedrige Frequenzen
werden stärker abgeschwächt als höhere Frequenzen.
Dabei beobachtet man die folgende
Frequenz-Abhängigkeit (fU = Untere
U0, A
U0, M
Grenzfrequenz; fO = Obere Grenzfre1
U0, M quenz)
2
Den Frequenzunterschied zwischen fU
und fO bezeichnet man als Bandbreite
des Verstärkers (Bereich gleicher
f
fO
fU
Verstärkung)
Lineare Verzerrung: Veränderte Kurvenform (z.B. Amplituden anders, aber
Signal noch Sinusförmig)
Nichtlineare Verzerrung: Bei zu großer Eingangsspannung erhält man kein
sinusförmiges Signal mehr.
Beim EKG ist der Bereich um ca. 1 Hz wichtig (Herzfrequenz!). Die Oberwellen erstrecken sich aber bis zu 300 Hz. (vgl. Skript, 7.7.)
23
Frage 24: Was ist Kernmagnetismus und wie wird er in der Magnetischen
Resonanz-Tomographie genutzt?
Wie Elektronen besitzen auch die Protonen in den Atomkernen einen Eigendrehimpuls, der als Kernspin I
Im Magnetfeld
bezeichnet wird (h ist das Plancksche Wir- Ohne Magnetfeld
kungsquantum). Dieser Spin bewirkt einen
N
Kreisstrom und damit ein (wenn auch kleines) Magnetfeld ("Elementarmagnetismus") oder, ganz anschaulich gesprochen,
S
die Atome verhalten sich wie kleine Stabmagnete, die man im Magnetfeld ausrich- Regellose Verteilung Gerichtete Verteilung
ten kann. Da Wasser das häufigste Molekül im Gewebe ist und jedes Wassermolekül zwei Protonen trägt, sind die
Kontraste in einem MR-Schnittbild durch die Konzentrationen der H2O-Moleküle an jedem Punkt im Körper bestimmt. Grundsätzlich sind hier 2 Möglichkeiten der Ausrichtung der "Protonen-Magnete" gegeben: Parallel und antiparallel zum Magnetfeld. Aufgrund der Boltzmann-Verteilung resultiert ein
leichter Besetzungsunterschied der beiden Niveaus. Dieser kann durch Energieeinstrahlung mit der Frequenz f gesättigt werden, wobei bei der Resonanzfrequenz Absorption eintritt:
g: gyromagnetisches Verhältnis des Kernes; B0: Äußeres Magnetfeld.
Überlagert man dem B0-Feld ein räumlich unterschiedliches Magnetfeld ("Gradient") so ist an jedem Ort im Körper f verschieden und man kann die Abhängigkeit der Resonanzfrequenz der H2O-Moleküle vom Ort zur bildlichen
Darstellung des Körpers verwenden (Protonenresonanz). Die Stärke des Signals
an jedem Punkt ist abhängig vom Wassergehalt. Die Signalintensität wird in
einem Schwarz-Weiß-Kontrast des Schnittbildes überführt. Die Methode ist
hochsensitiv auf Veränderungen im wasserreichen Gewebe (z.B. Tumordiagnostik). Es werden hohe B0-Felder benutzt, die mit supraleitenden Magneten
erzeugt werden. (vgl. Skript, 7.8.3.)
24
Frage 25: Wie hängt die Zusammensetzung der Röntgenstrahlung
von den Eigenschaften der Röntgenröhre ab?
Die Erzeugung und Anwendung von Röntgenstrahlen wurde erstmals 1895 von
Conrad Röntgen (in Würzburg) beschrieben. Röntgen wies z.B. Gewehrkugeln
(Blei bzw. Eisen ⇒ hohe Ordnungszahlen) in einem geeigneten "Probanden"
nach. Röntgen ist neben MRT, PET, CT und Ultraschall das wichtigste "bildgebende" Verfahren in der Medizin.
Erzeugung von Röntgenstrahlung:
Anode
Röntgenstrahlen
Elektronenstrahl
Kathode: Negativ geladen
Anode: Positiv geladen
Beschleunigungsspannung
Kathode
Heizspannung
Durch "Abbremsen" der beschleunigten Elektronen (W=eU) an der Anode wird
deren kinetische Energie (W=1/2mv2) in elektromagnetische Strahlung umgewandelt (W=hf).
Die entstehende Strahlung hängt im wesentlichen von 2 Parametern ab:
• Anliegende Heizspannung bzw. Stärke des Elektronenstrahles (Intensität der
Strahlung)
• Anliegende Beschleunigungsspannung (bestimmt die Grenzfrequenz und
somit die Energie der Röntgenstrahlung)
• Ordnungszahl des Anodenmaterials (Intensität der Strahlung)
Neben dieser "kontinuierlichen" Röntgenstrahlung existiert auch ein Röntgenspektrum mit diskreten Linien. Die Lage dieser Linien (z.B. Kα-Linie) hängt
(im Unterschied zur kontinuierlichen Strahlung) ganz entscheidend vom Anodenmaterial ab! (vgl. Skript, 8.1.2.)
25
Frage 26: Was ist und wie erzeugt man harte Röntgenstrahlung?
Je nach Beschleunigungsspannung, mit der die Röntgenröhre betrieben wird,
erhalten die Elektronen eine unterschiedliche kinetische Energie, die durch
folgende Gleichung gegeben ist: W = ½ m v2
W, kinetische Energie [J=Nm]; m, Masse des Elektrons [kg]; v, Geschwindigkeit des Elektrons [m/s]
Die Umsetzung dieser kinetischen Energie in elektromagnetische Strahlung
ergibt folglich auch unterschiedliche Strahlungsenergien bzw. Frequenzen:
e, Elementarladung (1.6×10-19 C bzw. As); h, Plancksches Wirkungsquantum
(6.626×10-34 Js); c, Vakuumlichtgeschwindigkeit (3×108 m/s).
Relativ willkürlich hat man Röntgenstrahlen eingeteilt:
Einteilung
Spannungsbereich
"Weich"
5-60 kV
"Mittelhart"
60-120 kV
"Hart"
120-400 kV
"Sehr hart"
400 kv - 3 MV
"Ultrahart"
> 3 MV
Allerdings findet man oft auch andere Einteilungen für Röntgenstrahlung. Nach
der angegebenen Tabelle müssen die anliegenden Spannungen für "harte"
Röntgenstrahlung zwischen 120 und 400 kV liegen.
Harte Röntgenstrahlung kann wegen der notwendigen hohen Spannungen nicht
mit Röntgenröhren erzeugt werden. Dafür werden Linearbeschleuniger eingesetzt, in denen durch kaskadenartige Beschleuniger Spannungen > 106 V erzeugt
werden.
Wichtig: Im Praktikum wurde bei den beiden Röntgenversuchen mit einer
Beschleunigungsspannung von ca. 25 kV gearbeitet, d.h. mit sehr weicher
Röntgenstrahlung. (vgl. Skript, 8.1.2.)
26
Frage 27: Welche primären Wechselwirkungen treten zwischen
Röntgenstrahlen und Stoffen auf?
Grundsätzlich gehört Röntgenstrahlung zu den ionisierenden Strahlen, d.h. ihre
Energie ist ausreichend, um Elektronen (e-) aus Atomen oder Molekülen herauszulösen. Die wichtigsten biologischen Effekte sind die Bildung freier Elektronen und freier Radikale oder allgemein die Bildung weiterer reaktiver Verbindungen (Sekundäreffekte), wobei es zur Schädigung von biologischen
Makromolekülen und Zellen kommen kann. Erwünscht sind diese Effekte z.B.
bei der Tumortherapie (Onkologie). Wichtige Effekte sind:
1. Elastische Streuung
Wenn die Energie der Röngenstrahlung nicht zur Ionisation ausreicht,
erfolgt nur eine elastische Streuung am Objekt, d.h. die Energie des Röntgenquants bleibt gleich, aber es erfolgt eine Richtungsänderung des Strahles.
2. Photoeffekt
Wenn die zur Ionisierung notwendige Energie überschritten wird, wird das
Röntgenquant mit der Energie hf vollständig absorbiert und ein Elektron
aus der Atomhülle abgelöst. Dabei entsteht ein freies Elektron. Für dessen
kinetische Energie gilt dann (A=Ablösearbeit):
3.
4.
Compton-Effekt
Wird ein Elektron aus einer äußeren Schale des Atoms abgelöst, so entsteht
gleichzeitig noch Streustrahlung mit geringerer Frequenz, d.h. geringerer
Energie.
Paarbildungseffekt
Trifft Röntgenstrahlung sehr hoher Energie (≥ 1.02 MeV) auf einen Atomkern, so tritt Umwandlung in ein Elektron und ein Positron ein. Elektron
und Positron bilden Teilchen und Antiteilchen, d.h. wenn beide aufeinander
treffen, "zerstrahlen" sie und Energie wird frei. (vgl. Skript, 8.2.2.)
27
Frage 28: Von welchen Eigenschaften des Stoffes und der Röntgenstrahlung hängt die Absorption der Röntgenstrahlen ab?
Grundsätzlich gehen hier 4 Faktoren ein, die sowohl die Strahlung (1) wie auch
das Material (2-4) betreffen:
1) Die Wellenlänge der Röntgenstrahlung (~ λ3)
2) Der Extinktions- bzw. Schwächungskoeffizient µ
3) Die Dicke des Absorbers d
4) Die Ordnungszahl des Materials (~ Z2)
Bei gegebener Wellenlänge wird die Intensität I0 beim Passieren eines Absorbers nach folgender Gleichung abnehmen:
Neben der Intensität der Strahlung ist die Halbwertsdicke d1/2 von besonderer
Bedeutung. d1/2 kann graphisch sehr einfach bestimmt werden kann:
I0
I0/2
d1/2
d
In der Regel nimmt dabei die Halbwertsdicke mit abnehmender Wellenlänge zu.
Der Schutz vor Röntgenstrahlen ist am besten durch Wände aus Elementen mit
hohem Schwächungskoeffizienten µ, d.h. großer Dichte und hoher Ordnungszahl (z.B. Blei) gegeben. (vgl. Skript, 8.2.1.)
28
Frage 29: Worauf beruht der Bildkontrast in einer Röntgenaufnahme?
Die Eigenschaft, die Röntgenstrahlen insbesondere in der medizinischen Diagnostik unverzichtbar gemacht haben, beruht darauf, daß die Röntgenstrahlen den
menschlichen Körper durchdringen (ihn "durchleuchten") und man somit ein
Bild vom Körperinneren aufnehmen kann. Obwohl man einem Patienten nicht
zu hohe Strahlendosen zumuten sollte, ist diese Untersuchung routinemäßig
durchführbar und für den Patienten schmerzfrei ("nicht-invasiv").
Grundlage der Röntgendiagnostik ist die sogen. Zentralprojektion:
Ideale
Zentralprojektion
Reale
Zentralprojektion
"Flächige"
Lichtquelle
Punktförmige
Lichtquelle
Halbschatten
Kernschatten
Halbschatten
Objekt
Bild
Da aber zum einen (im Realfall) die Röntgenquelle nicht punktförmig ist und
zum anderen durch die Gesetze der geometrischen Optik hintereinander liegende
Schichten mit unterschiedlicher Vergrößerung abgebildet werden (vgl. Praktikumsversuch "Röntgen I"), können hier größere Probleme auftreten.
Der Bildkontrast einer Röntgenaufnahme ist letztlich durch die Dichte des
untersuchten Objekts, wesentlich jedoch durch die Ordnungszahl der darin
enthaltenen Elemente gegeben: Besonders Knochen, die dichter sind als Weichteile und schwerere Elemente (v.a. Calcium und Phosphor) enthalten, können
von den übrigen Weichteilen gut abgegrenzt werden (vgl. Unterschiede H2O Knochen).
Wichtig: "Schatten" im Röntgenbild sind hell bei Filmaufnahmen, aber dunkel
bei Bildschirmdarstellung. Zur räumlichen Darstellung werden zwei Aufnahmen
benötigt (1 Aufnahme liefert nur eine Ebene!) (vgl. Skript, 8.3.1. und 8.3.2)
29
Frage 30: Vergleichen Sie die Bildentstehung der klassischen Röntgenaufnahme mit der Bilderzeugung bei der modernen Computertomographie!
Bei der Computertomographie (CT) werden bei der Röntgendurchstrahlung
einer Körperschicht die Schwächungswerte kleiner Objektbereiche für Röntgenstrahlung bestimmt. Diesen Werten (Pixeln), die mosaikartig das Röntgenbild
aufbauen (z.B. 512×512 Pixel je Körperschicht) werden dann sekundäre Graustufen zugeordnet. Das Bilderzeugungsverfahren ist grundsätzlich anders als bei
dem der klassischen Röntgendiagnostik. Bei der CT wird der Patient durch
zahlreiche engbegrenzte Röntgenstrahlbündel durchstrahlt, wobei die Ebene
zwar gleich bleibt, aber die Projektionsrichtungen ständig wechseln. Dazu ist es
notwendig den Röntgen-Fächerstrahl um den Patienten zu drehen (vgl. Abbildung) und z.B. alle 0.5° ein Bild aufzunehmen.
Die durch die Absorption im Patienten auftretende Schwächung des Röntgenstrahls kann
dann rechnerisch in die jeweiligen Schwächungskoeffizienten (Voxel) umgerechnet werPatient
den. Dadurch erhält man bei der CT eine sehr
viel bessere Auflösung der Röntgenbilder,
wenngleich die Röntgendosis auch wesentlich
höher ist. (Voxel entsprechen den Volumenelementen, während Pixel den Bildpunkten am
Bildschirm bzw. auf dem Film entsprechen).
Ei entspricht dabei der Extinktion im Voxel und I der Intensität.
Wichtig: Bei "normalem" Röntgen erhält man nur eine Frontalebene; DreiDimensionalität wird durch eine zweite Aufnahme erreicht. Bereits hier - und
nicht erst beim Thema Optik - sollte man die Abbildungsgleichung (d.h. das
Verhältnis von Bildgröße:Gegenstandsgröße entspricht dem Verhältnis von Bildweite:Gegenstandsweite) kennen! (vgl. Skript, 8.3.1. und 8.3.2)
30
Frage 31: Wie kann man radioaktive Strahlung nachweisen?
a) Fluoreszenz
Werden bestimmte chemische Substanzen (z.B. Zinksulfid) von ionisierender
Strahlung getroffen, so kommt es zur Aussendung von Licht (Fluoreszenz). Die
Intensität des Lichtes ist ein direktes Maß für die Radioaktivität und kann über
Sekundärelektronen-Vervielfacher (SEV) sehr sensitiv nachgewiesen werden.
b) Schwärzung von Photoplatten
Die Schwärzung eines Filmes ist die klassische Methode zum qualitativen und
quantitativen Nachweis radioaktiver Strahlung. Eine Quantifizierung ist durch
"Einscannen" der Platten und Bestimmung des Schwärzungsgrades möglich.
c) Ionisationskammer
Wird ein Plattenkondensator, der mit Luft gefüllt ist, mit einer Spannungsquelle verbunden, so bildet die Luft einen großen Widerstand und es kommt zu
keinem Stromfluß. Wird durch radioaktive Bestrahlung aber die Luft ionisiert,
so werden die dabei gebildeten Ionen an den Kondensatorplatten entladen und
es fließt ein Strom. I ist dann proportional zur Intensität der radioaktiven Strahlung (⇒ Die für diese Anwendung wichtigsten Kondensatorgleichungen sollte
man wenigstens einigermaßen beherschen!).
d) Geiger-Müller-Zähler
Hier liegt ein ganz analoges Prinzip zugrunde, allerdings wurde die Methode
verfeinert und empfindlicher. Grundprinzip ist aber wie in (c) die Ionisation
des enthaltenen Füllgases.
e) Szintillationszähler
Hierbei werden durch radioaktive Strahlung in einem Kristall "Lichtblitze"
erzeugt, die dann wiederum Photoelektronen bilden. Diese können dann sehr
selektiv und außerdem sehr empfindlich nachgewiesen werden.
f) Nebelkammer
Radioaktive Strahlen können hier in einer wasserdampfgesättigten Kammer als
Kondensationskeime wirken, d.h. ihre Bahnen können durch Nebelbildung
sichtbar gemacht werden. Dies ist ein mehr qualitativer Nachweis (vgl. Skript,
9.3.1.)
31
Frage 32: Wie kann man sich vor ionisierender Strahlung schützen?
Generell: Zu den ionisierenden Strahlungen gehören UV-, Röntgen,- und radioaktive (α-, β-, und γStrahlung.
Über Sekundärreaktionen führt ionisierende Strahlung zur Bildung von Radikalen, d.h. von Molekülen, die ein ungepaartes Elektron besitzen und somit
..
.
extrem reaktiv sind. Diese Radikale (z.B. O2 , NO oder HO ) greifen in
biochemische Reaktionskaskaden ein und können z.B. die menschliche DNA
verändern, was zur Entstehung von Krebs führen kann. Auf der anderen Seite
sollte man jedoch auch nicht vergessen, daß Radikale auch an vielen wichtigen
Reaktionen, wie z.B. bei der Atmungskette beteiligt sind; d.h. auch positive
Wirkungen besitzen.
Es gibt unterschiedliche Möglichkeiten sich zu schützen:
a) Verhinderung der ionisierenden Strahlung
Nur schwer zu realisieren (wir sind ständig der kosmischen Strahlung und
innerer Strahlung (radioaktives K+) ausgesetzt), aber beste Möglichkeit!
b) Verminderung der Expositionsdauer
Je kürzer man sich der ionisierenden Strahlung aussetzt, umso geringer fallen
auch die Strahlenschäden aus! Wichtig für medizinische Anwendungen ist die
Minimierung der Strahlung durch immer empfindlichere Detektionsverfahren!
c) Möglichst großer Abstand zur Quelle
Die aufgenommene Strahlendosis sinkt quadratisch mit der Entfernung, d.h.
doppelt so großer Abstand senkt die aufgenommene Strahlenmenge auf ein
Viertel!
d) Möglichst guter Absorber
Je mehr Materie man zwischen sich selbst und die Quelle der radioaktiven
Strahlung bringt, umso geringer ist deren Wirkung. In der Regel gilt hier, je
dichter das Absorbermaterial und vor allem je höher seine Ordnungszahl ist,
desto besser der Schutz, den sie bieten. Blei ist z.B. fast ideal, um sich zu
schützen (vgl. auch Frage 28)! (vgl. Skript, 9.3.3.)
32
Frage 33: Erklären Sie die verschiedenen Arten des radioaktiven
Zerfalls!
Nur ca. 300 aller bekannten Nuklide sind wirk- a) α-Zerfall
lich stabil. Der Rest (inbesondere Kerne mit A
A-4
4
X
Y + α
Z-2
2
vielen Neutronen) ist radioaktiv, d.h. diese Ker- Z
ne zerfallen unter Bildung charakteristischer 226
222
4
Ra
Rn + α
86
2
Produkte. Man unterscheidet nach der Reihen- 88
folge der zeitlichen Entdeckung den α-, β- und
γ-Zerfall. Dabei bestehen nur α- und β-Strahlen b) β(-)-Zerfall
A
0
aus geladenen Teilchen, die in einem elek- A
~
X
Y + β + ν
Z
Z+1
-1
trischen Feld abgelenkt werden können, wäh60
0
rend γ-Strahlung, die immer als Folge von α- 60Co
~
Ni + β + ν
27
28
-1
und β-Zerfall auftritt, die Eigenschaften einer
elektromagnetischen Welle besitzt.
Beim α-Zerfall, bei dem aus dem Mutterkern c) β(+)-Zerfall
A
0
ein Heliumkern ausgestoßen wird, entsteht ein A
X
Y + β + ν
Z-1
+1
Tochterkern, dessen Massenzahl um 4 und die Z
11
0
Ladungszahl um 2 Einheiten vermindert ist. Die 11C
B + β + ν
6
5
+1
beiden anderen Zerfälle kann man sich als die
Umwandlung eines Neutrons in ein Proton (β--Zerfall) bzw. eines Protons in ein
Neutron (β+-Zerfall) vorstellen.
Alle genannten Arten der radioaktiven Strahlung besitzen typische Eigenschaften und unterschiedlich schädigende Wirkungen gegenüber biologischen Geweben (⇒ Tumorbehandlung!).
Wichtig: Die Zahl links oben entspricht der Massenzahl, d.h. der Summe der
Neutronen und Protonen. Die Zahl links unten entspricht der Ordnungszahl (was
auch gleichbedeutend mit der Protonenzahl ist und bei Atomen auch der Elektronenzahl entspricht). (vgl. Skript, 9.2.1.)
33
Frage 34: Erklären Sie die Absorptionen und Wirkungen der verschiedenen radioaktiven Strahlen!
Die unterschiedlichen Arten der radioaktiven
a) α-Zerfall
Strahlung unterscheiden sich ganz charakteA
A-4
4
ristisch in ihren Absorptionseigenschaften, in
X
Y + α
Z
Z-2
2
ihrer Reichweite und in ihren Wirkungen auf
226
222
4
Ra
Rn + α
tierisches Gewebe.
88
86
2
α-Strahlen bestehen aus positiv geladenen Heliumkernen, β--Strahlen hingegen aus Elektrob) β(-)-Zerfall
nen. Beide werden in einem elektrischen Feld
A
A
0
~
Y + β + ν
abgelenkt. Die γ-Strahlen hingegen sind elek- Z X
Z+1
-1
tromagnetische Wellen, die nicht im elektri- 60
60
0
~
Ni + β + ν
schen Feld abgelenkt werden. γ-Strahlung ent- 27Co
28
-1
spricht in ihren Eigenschaften und Wirkungen
der Röntgenstrahlung (⇒ Frage 25), hat aber
c) β(+)-Zerfall
einen anderen Entstehungsmechanismus.
A
A
0
Y + β + ν
Radioaktive Strahlen entstehen im Ergebnis Z X
Z-1
+1
v o n Z e r f a l l s p r o z e s s e n v o n i n s t a b i l e n 11
11
0
B + β + ν
Atomkernen (⇒ Frage 33 und nebenstehende 6 C
5
+1
Abbildung).
Die einzelnen Arten der radioaktiven Strahlung unterscheiden sich charakteristisch in ihrer Reichweite und Wirkung auf Gewebe. α-Strahlung besitzt eine
sehr kurze Reichweite. Bereits ein Blatt Papier kann diese Strahlung vollständig
absorbieren. Jedoch hat diese Strahlung aufgrund ihrer hohen Energie gegenüber
den anderen Arten der radioaktiven Strahlung das höchste Ionisationsvermögen.
β--Strahlung hat eine Reichweite von wenigen Zentimetern. Ihr Ionisationsvermögen ist geringer als das der α-Strahlung, aber höher als von γ-Strahlung. Die
Reichweite der γ-Strahlung beträgt mehrere Meter. Bemerkenswert ist auch, daß
α-Teilchen eine fast diskrete Energie (bzw. Geschwindigkeit) besitzen, während
β-Teilchen eine breite Verteilung der einzelnen Teilchengeschwindigkeiten aufweisen. (vgl. Skript, 9.2.1.)
34
Frage 35: Erläutern Sie die Gesetzmäßigkeiten des radioaktiven
Zerfalls!
Für alle Arten des radioaktiven Zerfalls gilt die (sehr wichtige!) sogen. Zerfallsgleichung. N(t) und N0 entsprechen der Anzahl der radioaktiven Kerne eines
Radionuklids zum Zeitpunkt t bzw. zum Beginn der Beobachtung.
In der Gleichung bedeuten: λ, Zerfallskonstante [1/s]; τ, mittlere Lebensdauer
[s]; T½, Halbwertszeit [s].
Die Halbwertszeit gibt dabei die Zeit an, in der die Hälfte der Kerne eines
radioaktiven Präparates zerfallen ist (bzw. in der die Aktivität des Präparates auf
die Hälfte abgenommen hat), während die mittlere Lebensdauer die Zeit charakterisiert, in der ein Rückgang auf 1/e, d.h. ca. auf 37% stattfindet.
Sehr anschaulich läßt sich dies in der folgenden Abbildung darstellen:
N0
N0/2
N0/e
T1/2
τ
t
Wie bei allen exponentiellen Zusammenhängen kann auch hier durch die
halblogarithmische Darstellung (ln N(t)/N0 gegen t) eine Gerade erhalten
werden. Deren Steigung entspricht der Zerfallskonstanten.
Wichtig ist in diesem Zusammenhang, daß der radioaktive Zerfall ein statistischer Prozess ist, d.h. man kann nicht sagen, wann genau ein bestimmter Kern
zerfällt (vgl. Skript, 9.2.2.)
35
Frage 36: Was ist die Aktivität eines radioaktiven Präparates und
wie ändert sie sich mit der Zeit?
Die Aktivität (A) eines radioaktiven Präparates definiert die Zahl der radioaktiven Zerfälle (∆N) pro Zeiteinheit. Die Einheit der Aktivität ist das Becquerel (Bq) und gibt die Zahl der Zerfälle pro Sekunde an. Das Curie (Ci), das
noch häufig verwendet wird, ist völlig analog, und es gilt 1 Ci = 3.7×1010 Bq.
Ähnlich wie die Zahl der pro Zeiteinheit zerfallenden Kerne, ändert sich auch
die Anzahl der Zerfälle und wird mit der Zeit gemäß einer e-Funktion kleiner.
Somit gilt auch hier das allgemeine Zerfallsgesetz der Radioaktivität:
Durch Umstellen und Logarithmieren läß sich dieses Gesetz z.B. auch in eine
einfache Geradengleichung umformen:
In der Gleichung bedeuten: λ, Zerfallskonstante [1/s]; τ, mittlere Lebensdauer
[s]; T½, Halbwertszeit [s].
Die Halbwertszeit gibt dabei die Zeit an, in der die Hälfte der Aktivität eines
radioaktiven Präparates erreicht wird (bzw. in der die Hälfte der ursprünglich
vorhandenen Kerne zerfallen ist), während die mittlere Lebensdauer die Zeit
charakterisiert, in der ein Rückgang auf 1/e, d.h. ca. auf 37% stattfindet.
Aktivität (A) und noch vorhandene Teilchen N lassen sich sehr leicht ineinander
umrechnen (vgl. Skript, 9.2.2.):
In der Natur existieren nur 3 Zerfallsreihen aber doch Halbwertszeiten zwischen
Millisekunden und Milliarden von Jahren. Eine günstige Halbwertszeit ist
wesentlich für die medizinische Anwendbarkeit eines radioaktiven Isotops!
36
Frage 37: Wie erzeugt man künstliche Radionuklide? Erläutern Sie
Anwendungen der Radionuklide in der Medizin!
Künstliche Radionuklide für medizinische Anwendungen werden in der Regel
in Kernreaktoren (bzw. in "Nuklidgeneratoren") erzeugt. Dazu wird ein natürlich-vorkommender "Targetkern" mit z.B. Neutronen, α-Teilchen, γ-Quanten
usw. "beschossen", wobei eine Kernreaktion eintritt und ein neuer Kern entsteht.
So kann z.B. 14C durch Neutronenbeschuß von 14N hergestellt werden.
Anwendungen sind die Tracertechniken: Eine bestimmte Substanz wird mit
einem radioaktiven Nuklid markiert und dann dem Patienten oral oder durch
Injektion appliziert. Durch die emittierte radioaktive Strahlung läßt sich dann die
Verteilung des radioktiven Isotopes im Körper bestimmen. Wichtige Beispiele:
a) Funktionsdiagnostik
Hier untersucht man, welche Menge eines bestimmten radioaktiven Elements pro Zeiteinheit von einem Organ aufgenommen wird (wichtig ist z.B.
bei der Schilddrüsendiagnostik das Isotop 131I mit T½ = 8.1 Tage). Damit
kann man auch "heiße" und "kalte" Bezirke in der Schilddrüse diagnostizieren. Dies ermöglicht Rückschlüsse darauf, ob das gesamte untersuchte
Organ funktioniert, oder nur ein bestimmter Bereich.
b) Strahlen- bzw. Tumortherapie
Als Beispiel wird die 60Co-Kanone (ein γ-Strahler) zum Abtöten von Krebszellen im Körper verwendet. Bei der äußeren Einwirkung muß dabei möglichst oft die Richtung der Strahlung geändert werden, um die Schädigung
des gesunden Gewebes möglichst gering zu halten ("Bestrahlungsplanung"). Es gibt eine sehr große Anzahl von radioaktiven Strahlern, die
entweder von außen oder durch vorübergehende Implantation zur Tumorbehandlung verwendet werden. Wichtig ist aber eine günstige Halbwertszeit!
c) Bestimmung wichtiger Phosphormetabolite
Eine Vielzahl von wichtigen, phosphorylierten Metaboliten entsteht durch
Einbau einer Phosphatgruppe aus ATP ("Adenosin-triphosphat"). Setzt man
"heißes" ATP ein, das mit 32P markiert ist, so kann man die Bildung und
das metabolische Schicksal solcher Produkte sehr leicht verfolgen. (vgl.
Skript, 9.3.2.)
37
Frage 38: Worauf beruht die Positronen-Emissions-Tomographie?
Bei der Positronen-Emissions-Tomographie (PET) wird dem Patienten zunächst
ein Positronenstrahler verabreicht, der sich in dem interessierenden Organ auch
anreichern sollte. Oftmals setzt man hier mit 18Fluor-markierte Deoxyglucose
ein. Prominente Vertreter für Positronenstrahler sind z.B. 11C, 13N und das
bereits oben erwähnte 18F.
Grundlage der Methode ist die sogen. "Vernichtungsstrahlung": Diese tritt
auf, wenn sich ein Elektron und ein Positron treffen, wobei wiederum zwei γQuanten gebildet werden:
e- + β+ → 2 γ-Quanten
Detektoren
für γ-Strahlen
Die "Vernichtungsstrahlung" entsteht unmittelbar am Ort der Reaktion von
Elektron und Positron.
γQ
ua
Der Aufbau eines PET-Gerätes ist in der
nt
1
Abb. dargestellt: Der Patient wird von einer kreisförmigen Anordnung von Detekγ-Q
ua
nt
toren (meist Szintillationszähler) für γ2
Strahlung umgeben. Da man die Lage des
Patienten kennt und außerdem weiß, daß
bei der Vernichtungsstrahlung die beiden γ-Quanten unter einem Winkel von
exakt 180° abgestrahlt werden, kann man aus der Differenz der Zeiten, in der
die Quanten die gegenüberliegenden Detektoren erreichen, die Lage der Strahlenquelle genau bestimmen. PET ist aufgrund des hohen Aufwandes für den
Nuklidgenerator, die Anschaffung des Scanners und die notwendigen Sicherheitsmaßnahmen eine sehr teure Methode, aber bislang das einzige Diagnoseverfahren für z.B. die Alzheimer-Erkrankung. Eine zunehmend wichtige Methode
zur Herz- und Hirn-Diagnostik ist "SPECT" ("Single Photon Emission Computer Tomography"). (vgl. Skript, 9.3.2.)
Organ mit aufgenommenem
β+-Strahler
38
Frage 39: Welche Dosiseinheiten werden zur Beschreibung der
Wirkung radioaktiver Strahlung verwendet?
Die Dosis ist kein Maß für die von einer Quelle abgegebene Strahlungsmenge
und auch kein Maß für die Strahlung, der ein Patient ausgesetzt ist, sondern nur
für die von ihm aufgenommene Strahlung!
Die Ionendosis gibt die Ladungsmenge der durch Strahlung gebildeten Ionen
eines Vorzeichens bezogen auf die Masse des Targets, in der diese Ladungsmenge gebildet wurde, an:
Bezieht man die Ionendosis auf eine definierte Zeiteinheit, so erhält man die
Ionendosisleistung. Diese Größe kann z.B. mit der Ionisationskammer (⇒
Nachweisverfahren für Radioaktivität) bestimmt werden.
Die Energiedosis D beschreibt die absorbierte Strahlenenergie je Masse des
entsprechenden Targets:
Früher rechnete man mit dem Rad, abgekürzt "rd" (1 rd = 10-2 Gy). Die Energiedosis dividiert durch die Zeit t liefert die Energiedosisleistung. Die Energiedosis ist primär schwer zu messen. Meistens wird über Umrechnungsfaktoren
(Ionisierung Luft ⇒ Ionisation im Gewebe) von der Expositionszeit auf die Energiedosis geschlossen.
Die Äquivalentdosis (Maßeinheit Sievert, Sv) erhält man schließlich durch
Multiplikation der Energiedosis mit dem Faktor q, der relativen biologischen
Wirksamkeit. Röntgenstrahlung, γ- und β-Strahlung haben q=1. Für α-Teilchen
gilt dagegen q=20. Ungefähr 5 Sv werden als letal angenommen; ca. 1 Sv führt
bereits zur Strahlenkrankheit. (vgl. Skript, 9.3.3.)
39
Frage 40: Von welchen physikalischen Größen hängt der Gasaustausch zwischen Lunge und Blut ab?
Bei der Diffusion gleichen sich die vorhandenen Konzentrationsunterschiede als
Folge der Brownschen Molekularbewegung aus. Dies geschieht nach den
folgenden Gleichungen, wobei man von einem linearen Konzentrationsgradienten zwischen den beiden Konzentrationen c1 und c2 über die Strecke d ausgeht:
Hier bedeuten c1 und c2 die Konzentrationen links und rechts der Membran (c1
soll höher als c2 sein!) und d die Membrandicke. Dies führt zu einem Diffusionsstrom (P: Permeationskonstante; A: Querschnittsfläche):
Bei der stationären Diffusion kommt es jedoch zu keinem Ausgleich der Konzentrationen, da durch einen aktiven (= energieverbrauchender) Mechanismus
jeweils der status quo wieder hergestellt wird. Der Gasaustausch zwischen
Lunge und Blut ist ein Diffusionstransport durch viele Schichten:
K ist hier der sogen. Kroghsche Diffusionskoeffizient K = α D. α ist die Löslichkeit (z.B. von Sauerstoff); die Konzentration des gelösten Sauerstoffs kann
aus der Löslichkeit α und dem Partialdruck pO2 berechnet werden:
Wichtig: Die Löslichkeit von Gasen in Flüssigkeiten ist vom Partialdruck und
von der Temperatur abhängig. Die Löslichkeit steigt mit abnehmender Temperatur und mit zunehmendem Partialdruck des Gases über der Flüssigkeit!
(vgl. Skript, 4.2. und 4.2.3.)
40
Frage 41: Welche physikalischen Eigenschaften beeinflussen den
Stofftransport durch Membranen?
Trennt man zwei Lösungen unterschiedlicher Konzentration c1 > c2 durch eine
Membran (z.B. Lipidmembran von Zellen), so werden sich im Laufe der Zeit
die beiden Konzentrationen infolge der auch hier gültigen Diffusionsgesetze
(Brownsche Molekularbewegung) ausgleichen. In der Membran bildet sich
dabei ein linearer Konzentrationsgradient:
Membran
Höhere Konz. c1
Geringere Konz. c2
Linearer Konzentrationsgradient in der Membran
Für die Diffusion gilt grundsätzlich das Fick´sche Gesetz, wonach der Diffusionsstrom J [mol/s] vom Diffusionskoeffizienten D, der Querschnittsfläche A
und dem Konzentrationsgradienten abhängig ist:
Der Konzentrationsgradient ist dabei gegeben durch (P=Permeabilität):
Die Konzentrationen werden sich also umso schneller ausgleichen, je höher der
Konzentrationsunterschied, je größer die Durchtrittsfläche und der Diffusionskoeffizient sind und je dünner die Membran ist (Vorsicht: Biologische Systeme
weisen oft hohe Selektivitäten auf, d.h. daß der gesamte Stofftransport doch
nicht eben nur über die Diffusion erfolgt!). (vgl. Skript, 4.2.)
41
Frage 42: Wie entsteht der osmotische Druck von Körperflüssigkeiten und welche Bedeutung hat er für den Flüssigkeitsaustausch
zwischen Blut und Gewebe?
"Pfeffer´sche
Zelle"
Trennt man zwei Lösungen unterschiedlicher
p = ρ g h Konzentration c1 < c2 (hellgrau: c1; dunkelgrau:
c2) durch eine semipermeable Membran, die nur
das Lösungsmittel passieren läßt, dann diffunSemipermeable
C2
dieren Lösungsmittelmoleküle aus der "dünneMembran
Hohe
KonC1
zentration
ren" in die "dickere" Lösung. Das führt dazu,
daß sich das Steigrohr (vgl. Abb.) mit FlüssigWanderung des
Niedrige KonLösungsmittels
zentration
keit füllt. Dies ist mit dem Aufbau eines
Druckes verbunden. Der maximal auf diese
Weise erreichbare Druck pOsm ist proportional der Konzentration und läßt sich
gemäß der van´t Hoffschen Formel berechnen: pOsm = i c R T.
Dabei entspricht i der Zahl der Teilchen, in die die Substanz (die im wesentlichen den osmotischen Druck verursacht) in Lösung dissoziiert (z.B. i=1 für
Glucose und i=2 für NaCl). Der osmotische Druck einer physiologischen
Kochsalzlösung (9 g/l ⇒ c = 154 mmol/l) würde demnach ca. 763 kPa betragen.
Dieser Druck hat große physiologische Relevanz, weshalb man bei Injektion
von Flüssigkeiten immer auf deren Isotonie achten muß, d.h. es muß der
gleiche osmotische Druck herrschen wie im Blut. Dazu verwendet man in der
Regel eine physiologische Kochsalz-Lösung (c = 9 g/l = 154 mM). Dies ist
wichtig, damit z.B. die Erythrozyten ihre Form bewahren. Würde ein geringerer
osmotischer Druck herrschen (hypotonische Lösung) würden sie schwellen
bzw. platzen, bei einem höhren osmotischen Druck (hypertonische Lösung)
jedoch schrumpfen. Auf der arteriellen Seite der Kapillaren ist der mechanische
Blutdruck größer als der kolloidosmotische Druck des Blutes ⇒ Flüssigkeit geht
vom Blut in das Gewebe über. Auf der venösen Seite sind die Bedingungen
umgekehrt, d.h. der Blutdruck ist kleiner (vgl. Blutkreislauf) und Flüssigkeit
strömt aus dem Gewebe in das Blut. Dies ist wichtig für die Versorgung des
Gewebes mit Nährstoffen (FILTERUNG !). (vgl. Skript, 4.3.)
42
Frage 43: Welche Änderungen sind mit dem Übergang vom Ruhepotential zum Aktionspotential verbunden?
Im Zellinneren herrscht generell eine höhere K+_Ionenkonzentration, während im
Extrazellulärraum die Na+-Konzentration höher ist. Die Zellmembran besitzt
unterschiedliche Permeabilitäten für unterschiedliche Ionen. Zum Ruhepotential
der Zelle gehört eine hohe Permeabilität für die K+-Ionen, während die Na+-Permeabilität gering ist. Da Kalium-Ionen entsprechend dem Konzentrationsgradienten nach außen diffundieren, bildet sich mit der Zeit eine Ladungsdifferenz
aus, die zum Aufbau eines Potentialunterschieds führt, so daß die Zelle außen
positiv und innen negativ geladen wird. Die kann im einfachsten Fall durch die
Nernst-Formel beschrieben werden:
Die Terme kT/e bzw. RT/F sind feste Größen,
mV
da sie nur aus Konstanten bestehten (e, Elementarladung 1.6×10-19C; k, Boltzmann-Faktor 60
1.38×10-23 J/K) und man die Körpertemperatur 40
mit 37°C, d.h. konstant 310 K annehmen kann. 20
ms
0
Der Term beträgt ca. 27 mV. Setzt man die
3
5
6
1
2
4
entsprechenden Werte ein, d.h. die Ionenkon- -20
zentrationen innen (ci) und außen (ca) dann er- -40
hält man das Ruhepotential der Zelle. Die Dif- -60
fusion kommt dann zum Stillstand wenn der -80
Konzentrationsunterschied durch die entstehenden Ladungsungleichgewichte kompensiert wird.
Bei Ausbildung eines Erregungspotentials erhöht sich die Permeabilität für die
Natriumionen. Dies führt dann zur Bildung einer positiven Überschußladung,
wodurch die Zelle "umpolarisiert" wird. Die Inversion dieser Prozesse erfolgt
durch entgegengesetzte Prozesse (Verlauf der Erregung s. Abb.). Wichtig: Die
Nernst-Gleichung berücksichtigt nur die K+-Ionen !!! (vgl. Skript, 4.4.)
43
Frage 44: Welchen Einfluß haben die Ionenpermeabilitäten und
Ionenkonzentrationen auf das Membranpotential der Zelle?
Man kann generell davon ausgehen, daß im Zellinneren eine höhere
K+_Ionenkonzentration herrscht, während im Extrazellulärraum die Na+-Konzentration höher ist. Die Zellmembran besitzt unterschiedliche Permeabilitäten für
unterschiedliche Ionen; während sie Kalium-Ionen passieren läßt, können Chlorid-Ionen sie nicht durchdringen. Da Kalium-Ionen entsprechend dem Konzentrationsgradienten nach außen diffundieren, bildet sich mit der Zeit eine Ladungsdifferenz aus, die zum Aufbau eines Potentialunterschieds führt:
Während die angegebene Nernst-Gleichung lediglich die Konzentrationen der
Kalium-Ionen (intra- und extracellulär) berücksichtigt, ist die Goldmann-Gleichung wesentlich genauer und berücksichtigt gleichermaßen die Permeabilitäten
für die Na+- und Cl--Ionen (a, außen; i, innen):
Diese Werte schwanken je nach Art der Zelle. Typische Werte und die damit
verbundenen Potentiale sind:
Ionenart
Innen
Außen
Relative Permeabilität
Nernst
[mV]
K+
155
4
1
-97
Na+
12
145
0.02
+67
Cl-
4
120
0.45
-91
Goldmann
[mV]
-89
Wichtig: Weitere Ionen, die im Blut häufig vorkommen, wie z.B. Hydrogencarbonat (HCO3-) werden auch hier nicht berücksichtigt! (vgl. Skript, 4.4.)
44
Frage 45: Welche elektrischen Methoden der Messung der Körpertemperatur gibt es?
Obwohl die meisten handelsüblichen Thermometer auf dem Prinzip basieren,
daß sich Flüssigkeiten (z.B. Methanol oder im Falle des Fieberthermometers
auch Quecksilber) mit ansteigender Temperatur ausdehnen, sind diese Verfahren zwar genau, erlauben aber keine kontinuierliche Temperaturmessung.
Die kontinuierliche Temperaturmessung ist mit elektrischen Verfahren möglich,
von denen sich im wesentlichen zwei Techniken etabliert haben.
a) Widerstandsthermometer
Hier nutzt man die Temperaturabhängigkeit des elektrischen Widerstandes
geeigneter Materialien (Prinzip: Widerstandsmessung):
entspricht dabei dem spezifischen Widerstand und ist eine Materialkonstante
( 0 entspricht bei 0°C). Diese Größen müssen wie der Temperaturkoeffizient
α experimentell bestimmt werden. Allgemein gilt hier, daß bei Metallen (α > 0)
der Widerstand mit der Temperatur zunimmt, während man z.B. für Salzlösungen (α < 0) das umgekehrte Verhalten findet. Zur Messung wird in der Regel
eine Wheatstone-Brücke verwendet (Praktikum!).
b) Thermoelement
Bei einem Thermoelement werden zwei Metalldrähte aus unterschiedlichem
Material zu einem Kreis verbunden. Dazwischen wird ein Amperemeter, d.h. ein
Strommesser geschaltet. Besteht zwischen den Lötstellen ein Temperaturunterschied ∆T, so fließt ein Strom, der ∆T proportional ist: Durch die unterschiedliche Neigung der Elektronen, ihr Metall zu verlassen (unterschiedliche "Austrittsarbeit"), kommt es zur Ausbildung einer Kontaktspannung an den Verbindungsstellen der beiden Materialien. Nur wenn eine Temperaturdifferenz
besteht, kommt es zu einem Stromfluß ("Thermostrom"). Dieser Stromfluß
hängt vom Widerstand, der Art der beiden unterschiedlichen Metalle und vor
allem von der Temperaturdifferenz ab (Prinzip: Strommessung): I = K (t1 - t2)
(vgl. Skript, 5.1.)
45
Frage 46: Welche physikalischen Prozesse sind am Wärmetransport
im Körper beteiligt und wie hängen sie von Temperaturunterschieden ab?
Für den Körper ist es wichtig, daß seine Temperatur konstant bei 37°C gehalten
wird, d.h. die Wärme, die bei den Stoffwechselprozessen erzeugt wird, aus dem
Körper abgeführt wird:
a) Wärmeleitung: Wie bei der Diffusion bildet sich ein linearer Temperaturgradient, wenn ein Körper mit einem anderen Körper in Berührung gebracht
wird. Der entstehende Wärmestrom ist umso größer, je höher der Temperaturgradient ∆T/∆x und je größer die "Kontaktfläche" A ist:
λ ist der sogen. Wärmeleitungskoeffizient [J/m K s] und stellt eine Materialkonstante dar (vgl. Praktikum!).
b) Konvektion: Aus der Leber und den Muskeln wird die anfallende Wärme
durch den Blutstrom abgeführt: P = ρ c I ∆T. Es bedeuten: ρ = Dichte von
Blut; I = Volumenstromstärke. ∆T = Temperaturdifferenz "Normalblut"/"Leberblut", c, spez. Wärmekapazität. Typisches Beispiel: Warmwasserheizung.
c) Verdunstung: Durch Verdunstung (Schwitzen) wird dem Körper Wärme
entzogen, da Wärme für den Übergang flüssig-gas verbraucht wird (P=r
∆m/∆t). r, Spez. Verdunstungswärme; ∆m, verdunstende Flüssigkeitsmenge; ∆t,
Zeit. ⇒ Heißes, trockenes Klima wird besser vertragen als schwülwarmes Klima,
da die Verdunstung vom Feuchtigkeitsgehalt der Luft abhängig ist.
d) Strahlung: Gemäß dem Stefan-Boltzmannschen Strahlungsgesetz (T4-Abhängigkeit: P=αAσT4) nimmt auch der menschliche Körper in Abhängigkeit von
der Umgebungstemperatur Wärme in Strahlungsform auf und gibt seinerseits
auch Wärme in Strahlungsform ab (Analogie: Glühbirne). Die Differenz ergibt
bei Zimmertemperatur (293 K) etwa eine Strahlungs(abgabe) von 160 Watt.
(vgl. Skript, 5.3.)
46
Frage 47: Wie werden Ultraschallwellen erzeugt und gemessen?
Schallwellen sind Longitudinalwellen, d.h. die Schwingung der Atome/Moleküle erfolgt in Ausbreitungsrichtung. Im Unterschied zu Licht, d.h. zu elektromagnetischen Wellen, benötigen Schallwellen ein Medium, in dem sie sich
ausbreiten können. Je dichter das Medium ist, desto schneller ist die Schallwelle
(Schallgeschwindigkeit in Luft ~ 340 m/s, in Wasser dagegen ~1500 m/s).
In Abhängigkeit von der Frequenz unterscheidet man allgemein:
a) 16 Hz < f < 20 kHz: Hörbarer Bereich
b) < 16 Hz: Infraschall
c) > 20 kHz: Ultraschall
Im einfachsten Fall genügt bereits eine Schallquelle, die wie eine Pfeife funktioniert ("Hundepfeife"). Für wissenschaftliche Zwecke werden jedoch elektische
Methoden verwendet, hauptsächlich der "Reziproke Piezoelektrische Effekt".
Der Piezoelektrische Effekt ("elektrisches Feuerzeug") liegt darin, daß die
Deformation eines piezoelektrischen Kristalls zum Auftreten von Ladungen an
den Kristallflächen führt. Umgekehrt führt das Anlegen einer Spannung an den
Kristall zu seiner Deformation (bei Gleichspannung). Legt man jedoch eine
hochfrequente Wechselspannung an, so kann man den Kristall zu "DickenSchwingungen" anregen, d.h. elektrische Energie in Schallenergie umwandeln.
Für medizinische Anwendungen wird sehr häufig ein BaTiO3-Kristall verwendet, den man zu seiner Resonanzschwingung anregt. Die Resonanzfrequenz
hängt dabei u.a. von der Dimension des Kristalls ab. Dabei kann man ein- und
denselben Kristall sowohl als Sender als auch als Empfänger verwenden. Niederfrequente Ultraschallwellen lassen sich auch durch den magnetostriktiven
Effekt erzeugen. Dieser beruht darauf, daß Ni-Legierungen im magnetischen
Feld ihre Größe verändern. Legt man einen Ni-Sttab in eine Spule, die mit
einem Hochfrequenzsender verbunden ist, so entstehen mechanische Schwingungen, die auch in den Bereich des Ultraschall fallen. Nachweisverfahren:
Messung der am piezoelektrischen Kristall gebildeten Spannung
Temperaturerhöhung von z.B. Wasser
Ultraschallsprudel ("Wasserhöhe")
Sonolumineszenz ("Lichtaussendung infolge Schwingung") (vgl. Skript, 6.2.)
47
Frage 48: Welche Frequenz und welche Intensität muß Schall
haben, damit ihn das menschliche Ohr hört? Werden Töne unterschiedlicher Frequenz, aber gleicher Intensität gleich laut gehört?
Zur Beantwortung der ersten Frage, s. unten; zur Beantwortung der zweiten
Frage: Nein!
Allgemein gilt: 16 Hz < f < 20 kHz: Hörbarer Schall-Bereich
Aus dieser Angabe folgt also, daß Schallwellen außerhalb dieses Bereichs auch
bei großer Intensität nicht mehr gehört werden können. Am empfindlichsten ist
das menschliche Ohr bei ca. 3200 Hz! Bei dieser Frequenz (bei der im übrigen
das typische Schreien eines Babys erklingt!) genügt bereits eine sehr geringe
Intensität, damit der Schall wahrgenommen werden kann. In der Regel wird der
sogen. Schallpegel über eine logarithmische Skala definiert:
Dies beruht auf der logarithmischen
Abhängigkeit der Reizempfindung von der
physikalisch definierten Reizstärke ("We"Schmerzgrenze"
ber-Fechner-Gesetz"). Dabei entspricht I
(in W/m2) der jeweilig applizierten Schallintensität, während I0 der Hörschwelle entspricht. Obwohl mathematisch nicht kor"Hörschwelle"
rekt, wird LP meistens in "Dezibel" (dB)
angegeben (0 dB, Hörschwelle; 140 dB
enstpricht der Schmerzgrenze).
Die Abbildung zeigt den Bereich zwischen Hörschwelle und Schmerzgrenze,
sowie die zugrunde liegenden Abhängigkeiten (vgl. Skript, 6.1.3. sowie Frage
49 und 50)
48
Frage 49: Haben Töne unterschiedlicher Intensität, aber gleicher
Frequenz die gleiche Tonhöhe?
Diese Antwort kann sehr schnell gegeben werden: JA!
Wie eine Schallwelle vom Menschen empfunden wird, ist sehr vom subjektiven
Empfinden des einzelnen abhängig (z.B. die Differenzierung Krach/Musik). Wie
laut ein Ton empfunden wird, hängt dabei sowohl von der Frequenz wie auch
der Intensität der Schallwelle ab. Auf der anderen Seite wird die Tonhöhe ausschließlich durch die Frequenz der Schallwelle bestimmt. Die Intensität hat
hier keinen Einfluß! Allgemein kann man sagen, daß die Verdopplung der Frequenz einer Zunahme der Tonhöhe um eine Oktave entspricht.
Zur Beschreibung der Lautstärke einer Schallwelle wird oft auch die PhonEinheit verwendet. Bei der Bezugsfrequenz von 1000 Hz sind dabei Angaben
in Phon und in dB völlig äquivalent, was in der folgenden Abbildung dargestellt
ist:
Einige typische Werte:
0 Phon ⇒ Hörschwelle; 50 Phon ⇒ "Normale" Unterhaltung;
80 Phon ⇒ Starker Straßenverkehr; 130 Phon ⇒ Schmerzgrenze
(vgl. Skript, 6.1.3.)
49
Frage 50: Welcher Zusammenhang besteht zwischen der Lautstärke
und der Schallintensität?
Frequenz und Intensität einer sinusförmigen Schallwelle können streng physikalisch gemessen und charakterisiert werden. Im Gegensatz dazu ist das menschliche Gehör nur zu einer stark subjektiven Einordnung der wahrgenommenen
Schallwellen fähig (Lautstärke, Tonhöhe). Dabei wird die Tonhöhe durch die
Frequenz, die Lautstärke aber durch die Intensität und die Frequenz
bestimmt.
Das menschliche Ohr ist ein Druckempfänger. Die Anpassung zwischen der
Luft und dem Innenohr besorgen die Gehörknöchelchen. Das Innenohr transformiert die Schallwellen in Nervenimpulse.
Das Weber-Fechnersche Gesetz sagt aus, daß zwischen Empfindung und
Intensität ein logarithmischer Zusammenhang besteht, der durch die Schallintensitäten oder die Druckamplituden der Schallwelle wiedergegeben werden
kann:
J0 ist hier die minimale Intensität eines Tones von 1000 Hz, der gerade noch
wahrgenommen wird und J ist die Intensität eines 1000 Hz-Tones, der die
gleiche Empfindung hervorruft wie ein bestimmter Laut der Lautstärke L.
Beispiel: Ein Motorrad verursacht eine Lautsärke von 90 Phon. Welche Lautverstärke verursachen 2 Motorräder?
⇒ Die Empfindung von "Krawall" steigt nicht linear an! (vgl. Skript, 6.1.3.)
50
Frage 51: Worauf beruht die Messung der Strömungsgeschwindigkeit des
Blutes mit Ultraschallwellen?
er
ng
Em
p fä
Se
nd
er
Diese Meßmethodik beruht auf dem
Doppler-Effekt . Dieser Effekt ist
auch aus dem täglichen Leben bekannt und tritt dann auf, wenn Schallf0
quelle und Detektor sich gegeneinf
ander bewegen: Bewegen sich Beobachter und Schallquelle gegeneinanβ
der, so nimmt der Beobachter eine
α
veränderte Frequenz der Welle wahr.
v
Fährt ein z.B. Motorrad auf einen
Beobachter zu (Abstand vermindert
sich), so hat dieser den Eindruck, daß die Frequenz des Motors zunimmt.
Enfernt sich das Motorrad wieder, so denkt man, daß die Frequenz kleiner wird.
Dafür gilt (mit u: Geschwindigkeit des Fahrzeugs und c: Schallgeschwindigkeit):
a) gilt dabei, wenn der Beobachter ruht und sich die Schallquelle bewegt,
während b) im umgekehrten Falle gilt. f0 steht für die Frequenz der Quelle und
c für die Ausbreitungsgeschwindigkeit. Die Auswertung der Blutströmung
erfolgt nach folgender Gleichung:
Die zweite Gleichung gilt für den Spezialfall, daß α = β, d.h. wenn der Sender
gleichzeitig auch als Empfänger verwendet wird. Je höher also die Frequenzdifferenz ∆f ist, desto größer ist auch die Fließgeschwindigkeit des Blutes. Analogie: Geschwindigkeits-(Radar)-kontrollen der Polizei. (vgl. Skript, 6.3.)
51
Frage 52: Wovon hängt die Ultraschallreflexion an Gewebegrenzen
ab?
Beim Durchdringen eines Stoffes wird die Ultraschallintensität durch Reflexion,
Streuung und Absorption geschwächt. Die absorbierte Energie wird vorwiegend in Wärme umgewandelt. Hierauf beruht auch der therapeutische Effekt
des Ultraschalls. Ähnlich wie andere Verfahren (Röntgen, PET, MR usw.) kann
auch Ultraschall als bildgebendes Verfahren Anwendung finden. Diese Anwendung basiert im wesentlichen auf der Reflexion des Schalls an Hindernissen.
Grundsätzlich müssen hier aber die Dimensionen der zu untersuchenden Objekte
groß gegen die Wellenlänge der Ultraschallwelle sein. So benötigt man z.B. zur
Reflexion einer Ultraschallwelle mit einer Wellenlänge von 1mm Strukturen im
cm-Bereich.
Der Schwächungskoeffizient µ für Ultraschall ist abhängig von:
a) Art des Gewebes
b) Frequenz (µ nimmt mit größerer f zu; Ausnahme: Lungengewebe)
c) Schallintensität
d) Temperatur
e) Größe des zu untersuchenden Objekts im Verhältnis zu λ
Die Intensität des gestreuten Ultraschalls ist abhängig von:
λ » r ⇒ I ~ r6 f4
λ « r ⇒ I ~ unabhängig von der Dimension des Objekts und der Wellenlänge des verwendeten Ultraschalls
Die Reflexion αR ist generell abhängig von:
Z wird als "Akustische Impedanz" bezeichnet. Wenn Z1 ~ Z2 tritt kaum Reflexion
ein, d.h. fast die gesamte Intensität dringt ein. Da Z für Wasser und Luft sehr
unterschiedlich ist (wegen der verschiedenen Dichten und Ausbreitungsgeschwindigkeiten), und dadurch fast nichts eindringen würde, ist ein "Koppelgel"
notwendig, um den Übergang Luft → Wasser zu vermeiden. (vgl. Skript, 6.3.2.)
52
Frage 53: Welche Wirkung hat Ultraschall auf Gewebe?
Beim Durchdringen eines Gewebes wird die Ultraschallintensität durch Reflexion, Streuung und Absorption geschwächt. Die absorbierte Energie wird vorwiegend in Wärme umgewandelt. Hierauf beruht auch der therapeutische Effekt
(Erwärmung, "Mikromassage", Durchmischung). Im Gegensatz z.B. zu Infrarot,
kann Ultraschall auch in tiefere Schichten eindringen und diese erwärmen. Dies
wäre auch mit Hörschall möglich, jedoch besitzt Ultraschall - aufgrund seiner
höheren Frequenz - auch eine wesentlich höhere Intensität. Es gilt:
Wobei Z die "akustische Impedanz" ist (Produkt aus Dichte und Schallgeschwindigkeit c in einem Medium), A0 entspricht der Amplitude der
Teilchenschwingung, ω entspricht der Kreisfrequenz und f der Frequenz. Die
Einheit von I ist W/m2. Ähnlich wie beim radioaktiven Zerfall definiert man
auch hier einige charakteristische Größen. So kann man annehmen, daß die
eingestrahlte Ultraschallintensität mit zunehmender "Schichtdicke" x des Gewebes abnimmt. α ist der (Schall)-Absorptionskoeffizient des jeweiligen Gewebes:
α´ ist ein frequenzunabhängiger Schwächungskoeffizient (α´ = α/f). Wie bei der
Radioaktivität definiert man auch hier eine Halbwertsschichtdicke xHWT durch
die die Intensität der Schallwelle auf die Hälfte reduziert wird.
Aus dieser Gleichung kann man dann ableiten:
(vgl. Skript, 6.3.2. und 6.1.2.)
53
Frage 54: Welcher Zusammenhang besteht zwischen der Ultraschallabsorption und der Eindringtiefe?
Die von einer Schallwelle durch ein Medium transportierte Energie bleibt nicht
unverändert. Ein Teil der Schallenergie wird durch unterschiedliche "Reibungsvorgänge" in Wärme umgewandelt. Hierauf beruht auch der therapeutische
Effekt des Ultraschalls (Erwärmung des Gewebes bei Bestrahlung mit Ultraschall, die auch untere Schichten erreicht). Es gilt: Je größer die Absorption,
desto kleiner die Eindringtiefe!
Die Schallintensität nimmt in Ausbreitungsrichtung der Schallwelle gemäß dem
Schallabsorptionsgesetz ab:
Hier ist I(x) die Intensität am Ort x, I0 die anfängliche Intensität und α der
jeweilige Absorptionskoeffizient.
Graphisch ist dieser Zusammenhang in der Abbildung dargestellt:
I
I0
I0/2
xHWT
x
Für die Halbwertsschichtdicke gilt dann (analog zum radioaktiven Zerfall):
Große Werte von α entsprechen also kleinen Halbwertsdicken und umgekehrt,
wobei aber auch noch die Schallfrequenz auf eine komplizierte Weise eingeht
(in Frage 53 diskutiert). (vgl. Skript, 6.3.2. und 6.1.2.)
54
Frage 55: Erklären Sie das Grundprinzip der Bilderzeugung der
Ultraschall-Sonographie?
r2 /
c
2 (r1
r1 -
-r2)
/c
Wie andere Verfahren (CT, PET, MRT usw.) findet Ultraschall als bildgebendes Verfahren eine breite Anwendung. Diese Anwendung basiert auf der
Reflexion des Schalls an Hindernissen. Grundsätzlich müssen hier aber die
Dimensionen der zu untersuchenden Objekte groß gegen die Wellenlänge der
Ultraschallwelle sein. So benötigt man z.B. zur Reflexion einer Ultraschallwelle
mit einer Wellenlänge von 1 mm Strukturen im cm-Bereich.
Das Verfahren beruht auf der Reflexion des Schalls an der Grenzfläche
zwischen zwei unterschiedlichen Geweben mit unterschiedlichen akustischen
Impedanzen Z1 und Z2; Z ist das Produkt aus der Dichte des Mediums und der
Schallgeschwindigkeit in diesem Medium. Hier definiert man einen Reflexionskoeffizienten αr und einen Transmissionskoeffizienten αd:
Im Prinzip mißt man beim Amplitudenverfahren (A-Bild) die zeitlichen Unterschiede bei der Reflexion der Ultraschallwelle an unterschiedlichen Mediengrenzen. Im Gegensatz dazu ermöglicht das B-Bildverfahren die Aufnahme
zweidimensionaler Schnitte durch ein Objekt; d.h. ein kugelförmiges Objekt
wird als Kreis auf dem Oszilloskop dargestellt. Dies ist nur mit einem Abtastverfahren unter wechselnden Winkeln möglich, wohingegen beim A-BildVerfahren nur eine Auswertung längs einer vorgegebenen Linie möglich ist (vgl.
Skript, 6.3.3.)
55
Frage 56: Erklären Sie die Bildentstehung an einer Sammel- und
Zerstreuungslinse!
Linsen: Durchsichtige, von gekrümmten Flächen begrenzte Körper. Linsen, die
in der Mitte dicker sind als am Rande (Konvexlinsen) wirken als Sammellinsen, während Zerstreuungslinsen (Konkavlinsen) am Rand dicker sind. Es gibt
einige Regeln zur Bildkonstruktion:
a) Parallelstrahl wird zum Brennpunktstrahl
b) Brennpunktstrahl wird zum Parallelstrahl
c) Mittelpunktsstrahl erfährt keine Richtungsänderung
Schon 2 Strahlen erlauben die Konstruktion eines Bildes gemäß der Abbildungsgleichung:
G und B stehen dabei für die Größe des Gegenstandes bzw. seines Bildes und
g und b für die Gegenstands- bzw. Bildweite. f ist die Brennweite.
b) Zerstreuungslinse
a) Sammellinse
f
G
f´
f
G
B
b
B
g
g
b
Sammellinsen ergeben somit umgekehrte reale Bilder, während Zerstreuungslinsen aufrechte, virtuelle Bilder ergeben. Die Brennweiten von Zerstreuungslinsen werden immer negativ angegeben, bei Sammellinsen dagegen positiv. Der
Kehrwert der Brennweite (1/f) wird als Brechkraft bezeichnet und in Dioptrie
(dpt = 1/m = m-1) gemessen. Wichtig: Alle angegebenen Formeln gelten für den
Fall, daß das Außenmedium eine niedrigere Brechzahl als das Linsenmaterial
hat. Virtuelle Bilder sind nicht sichtbar; sie können aber durch eine zusätzliche
Linse (z.B. Augenlinse bei der Lupe) sichtbar werden! (vgl. Skript, 10.1.2.)
56
Frage 57: Was versteht man unter dem Modell des reduzierten
Auges und wie ensteht das Bild?
Das menschliche Auge besteht aus der Hornhaut (Cornea), der Vorkammer, der
Iris, der Linse, dem Glaskörper und der Netzhaut (Retina), denen unterschiedliche Brechkräfte zukommen. Dabei rührt der Hauptteil der Brechkraft des
Auges (~2/3, 42 dpt) von der Cornea her, während der Linse nur ein kleiner
Anteil (16 dpt) zukommt.
Augeninneres
Luft
n=1.0
n´=1.33
F
F´
f = 17.1 mm
f´ = 22.8 mm
Hauptebene
Die zahlreichen Brechungen, die am Auge auftreten, können durch eine
Brechung an der Hauptebene des Systems ersetzt werden (reduziertes Auge).
Diese Hauptebene liegt ca. 1.5 mm hinter dem Corneascheitel. Die entsprechenden Brennpunkte liegen dann (beim entspannten Auge!) im Abstand
von 17.1 mm vor bzw. 22.8 mm dahinter. Das Bild entsteht auf der Retina.
Die Gesamtbrechkraft des Auges für die Beobachtung entfernter Gegenstände
beträgt somit ca. 58 dpt (Auge entspannt). Bei Verringerunng des Abstands des
Objekts muß sich die Brechkraft ändern. Die Eigenschaft des Auges, seine
Brechkraft ändern zu können, um unterschiedlich weit entfernte Gegenstände
scharf abbilden zu können, bezeichnet man als Akkommodation. Diese Fähigkeit geht mit dem Alter verloren, ohne daß man aber erblindet, d.h. es handelt
sich um eine Verminderung der Entfernungsanpassungsfähigkeit ("Altersweitsichtigkeit"). (vgl. Skript, 10.1.3.)
57
Frage 58: Erklären Sie die Brechung an einem linsenlosen Auge!
Obwohl das menschliche Auge kompliziert aufgebaut ist und aus unterschiedlichen Teilen besteht (Cornea, Vorderkammer, Iris, Linse, Glaskörper und
Netzhaut), hat bereits das linsenlose Auge eine abbildende Wirkung. Hier
grenzt die Cornea (Krümmungsradius ca. 8 mm) zwei Bereiche unterschiedlicher Brechzahlen voneinander ab:
Augeninneres
Luft
n=1.0
n´=1.33
F
F´
f = 24 mm
f´ = 32 mm
Hauptebene
Dabei kann man für Luft ca. n=1 und für das Augeninnere ca. n=1.33 annehmen. Damit ergibt sich dann für die Lage von f´:
Und für den anderen Brennpunkt f:
Dann ergibt sich für die Brechkraft des linsenlosen Auges:
Im Vergleich zur Brechkraft der Linse (D~18.7 dpt) macht also die Cornea den
Haupteil der Brechkraft aus. Ein linsenloses Auge würde die Fähigkeit zur
Entfernungseinstellung unmöglich machen und die beim Normalauge im ∞
liegende Grundentfernung auf einen Bereich "jenseits" ∞ verschieben (vgl.
Skript, 10.1.2. und 10.1.3. und Abb. 10.7.)
58
Frage 59: Woraus ergeben sich die Grenzen des Auflösungsvermögens des Auges?
Unter der Auflösung versteht man den Abstand, den 2 Punkte voneinander
haben müssen, um getrennt wahrgenommen werden zu können. Erfahrungsgemäß nimmt dieser Abstand mit zunehmender Entfernung vom Auge stark zu,
d.h. man sieht "ungenauer". Die Auflösungsgrenze liegt bei Kindern bei etwa
100 µm . Im Akkomodationsbereich liegt die deutliche Sehweite bei ca. 25 cm.
Unter dem Sehwinkel versteht man den Winkel, unter dem man einen Gegenstand gerade noch aufgelöst erkennt; er wird von den äußersten vom Gegenstand kommenden Strahlen gebildet und bestimmt die Größe des Netzhautbildes:
G
δ0
g
Der Sehwinkel ist definiert als Gegenstandsgröße/Gegenstandsweite bzw.
genauer der Tangens dieses Verhältnisses:
Für das normalsichtige Auge beträgt der minimale Sehwinkel, unter dem man
2 Punke noch getrennt wahrnehmen kann ca. 1´ (eine Winkelminute). Dieser
Wert kann folgendermaßen erklärt werden: Die Linse des Auges erzeugt das
Bild des Gegenstandes auf der Netzhaut, was durch die Zäpfchen bzw. Stäbchen
realisiert wird. Zwei Punkte werden nur dann noch getrennt wahrgenommen,
wenn sie auf 2 verschiedene, durch mindestens eine nicht-erregte Zelle getrennte, Zäpfchen bzw. Stäbchen fallen (Andere Erklärung: Wellennatur des Lichtes;
Beugung des Lichtes an der Iris; vgl. auch Frage 63, ⇒ Mikroskop).
Generell kann man sagen, daß optische Instrumente (z.B. Lupe) dazu beitragen,
den Sehwinkel des Betrachters zu vergrößern. (vgl. Skript, 10.1.5.)
59
Frage 60: Erklären Sie die Totalreflexion und ihre Anwendung in
der Endoskopie!
An der Grenzfläche zweier Medien wird ein Lichtstrahl nicht nur reflektiert,
sondern er tritt mit einem Teil seiner Energie in anderer Richtung in das neue
Medium über, d.h. er wird gebrochen.
Dabei gilt, daß der Lichtstrahl beim Übergang vom optisch dünneren (größere
Lichtgeschwindigkeit c) zum optisch dichteren (kleinere c) Medium die Brechung zum Lot hin erfolgt, d.h. der Einfallswinkel wird kleiner (und umgekehrt!). Hier gilt dann folgende Gleichung:
Beim Übergang dichteres → dünneres Medium kann der Einfallswinkel einen
bestimmten Grenzwinkel αG nicht überschreiten, da der Sinus des Brechungswinkels maximal 1 werden kann. Dies ist für β = 90° der Fall (sin 90° = 1).
α < αG
α = αG
α > αG
Lot
Lot
Lot
Optisch
dünner
(z.B. Luft)
β
α
90°
α>αG
β=α Optisch
dichter
(z.B. Wasser)
αG
Bei allen Einfallswinkeln α > αG tritt Totalreflexion ein. Die gesamte Lichtenergie wird dann nach dem Reflexionsgesetz in das erste, also das optisch
dichtere Medium reflektiert. Es gilt: sin αG = 1/n.
Hauptsächliche Anwendung der Totalreflexion in der Medizin sind die Lichtleiter. Das sind dünne Glasfasern, die aus Mantel (M) und Kern (K) bestehen.
Das Glas der beiden unterscheidet sich in der Brechzahl (nK > nM). Zwischen
Kern und Mantel kommt es zur Totalreflexion, weshalb das Licht nahezu
verlustfrei weitergeleitet wird, auch wenn Krümmungen auftreten (z.B. für
Endoskopie). (vgl. Skript, 10.1.1.)
60
Frage 61: Wie ändert sich die Lage des Brennpunktes bei der Akkommodation des Auges?
Wie aus der Praxis bekannt, müssen viele optische Apparate "scharf" eingestellt
werden. Ein Beispiel dafür stellt z.B. eine normale Kamera dar. Hier wird die
Schärfe eingestellt, indem man das Objektiv verschiebt, d.h. die Bildweite der
jeweiligen Gegenstandsweite anpaßt.
Das Auge besitzt eine Konvexlinse. Die Scharfeinstellung erfolgt hier nicht
durch Verändern der Bildweite, sondern durch Veränderung der Brennweite
der Kristallinse. Das Anpassen der Brennweite an die jeweilige Gegenstandsweite geschieht unbewußt und wird als Akkommodation bezeichnet, wobei dies
in anatomischer Hinsicht einer Linsenverformung entspricht. Diese Fähigkeit
verliert der Mensch mit zunehmendem Alter.
Bei der Akkommodation kann die größte Gegenstandsweite unendlich sein
(Fernpunkt) und die kleinste (Nahpunkt) etwa 8 bis 10 cm. Dieser Wert vergrößert sich mit zunehmendem Alter ("Altersweitsichtigkeit"). Die kleinste
Entfernung, auf die das Auge ohne besondere Anstrengung akkommodieren
kann, nennt man deutliche Sehweite. Sie beträgt beim normalsichtigen Auge ca.
25 cm. Die Brechkraft des Auges besteht also aus einem konstanten Anteil
D0 ~ 58.5 dpt und einem variablen Anteil, der aber maximal ca. 14 dpt sein kann.
Daraus kann man auch den Nahpunkt des Auges berechnen.
Fernpunkt und Brennpunkt sollten nach Möglichkeit zusammenfallen; wenn dies
nicht mehr der Fall ist, so ist Tragen einer Brille notwendig (Bei Weitsichtigkeit
ist der Augapfel zu kurz, d.h. das Bild entsteht erst hinter der Netzhaut. Dies
kann durch ein Brille mit konvexer Linse (Sammellinse!) korrigiert werden. Bei
Kurzsichtigkeit genau umgekehrt). (vgl. Skript, 10.1.3.)
61
Frage 62: Erklären Sie die Vergrößerungswirkung einer Lupe
anhand der Bildkonstruktion! Welche Vergrößerung läßt sich mit
Hilfe einer Lupe erzielen?
Die Lupe ist eine Konvexlinse (Sammellinse). Der Gegenstand G befindet sich
innerhalb der Brennweite (g<f). Das entstehende Bild ist dann virtuell, aufrecht
und vergrößert. Weiterhin entsteht es auf der Gegenstandsseite, also vor der
Linse, d.h. b<0:
B
F
F´
G
g
b
Dann gilt für die Normalvergrößerung der Lupe bei nicht-akkommodiertem
Auge:
Dabei ist s0 die deutliche Sehweite (~ 25 cm bei normalsichtigen Augen) und f
die Brennweite der Lupe. Normalerweise bringt man bei der Lupe das betrachtete Objekt in den Brennpunkt und akkommodiert auf die deutliche Sehweite.
Dabei ergibt sich dann ein stärkerer Vergrößerungsfaktor:
Somit ist die Vergrößerungswirkung der Lupe also umso größer, je kleiner
ihre Brennweite ist. Lupen lassen nur Vergrößerungen zwischen 10 und 15-fach
zu. Stärkere Vergrößerungen gehen ganz entscheidend auf Kosten der Bildqualität. Wichtig: Im Sonderfall einer Sammellinse mit g < f wirkt diese als Lupe
und erzeugt ein aufrechtes, vergrößertes und virtuelles Bild. Alle Okulare in
optischen Geräten sind Lupen (vgl. Skript, 10.2.1. und Frage 56!)
62
Frage 63: Erklären Sie die Vergrößerungswirkung eines Lichtmikroskops anhand der Bildkonstruktion! Welche Vergrößerung läßt
ein Lichtmikroskop zu?
Man kann ein Mikroskop als ein aus zwei Linsen zusammengesetztes optisches
System ansehen. Ein Lichtmikroskop kommt in der Regel bei Gegenstandsgrößen zwischen 1 mm und 0.1 µm zum Einsatz. Es besteht aus 2 Sammellinsen und einer Lichtquelle. Die Linse am Auge wird dabei als Okular (Brennweite f: einige cm), die Linse zum Objekt dagegen als Objektiv (Brennweite f:
einige mm) bezeichnet. Folgender Strahlengang ist typisch für das Mikroskop:
Objektiv
Okular
d = 0.61
l
G
f1
'
f2
λ
n sin (α)
= 0.61
λ
A
Bz
f1
f2
'
D, Auflösungsgrenze; kleinster Punktabstand
Λ, Wellenlänge des Lichtes
N, Brechzahl des Mediums Objekt/Mikroskopobjektiv
Α, Aperturwinkel = Halber Öffnungswinkels des Objektivs
A, Numerische Apertur = n sin α
B
Die erste Linse (arbeitet ähnlich wie ein Diaprojektor) erzeugt dabei zunächst
ein reelles, vergrößertes Zwischenbild zwischen Okular und Brennpunkt f2 des
Okulars. Das Endbild (B) liegt dagegen vor dem Okular, ist vergrößert, virtuell
und umgekehrt (im Vergleich zum betrachteten Gegenstand).
Für die Gesamtvergrößerung des Mikroskops gilt:
l, Tubuslänge des Mikroskops; s0, Deutlicher Sehabstand ~ 25 cm.
Wichtig: Die maximale, sinnvolle Vergrößerung beim Mikroskop beträgt ca.
2000× (wegen der Wellennatur des Lichtes). (vgl. Skript, 10.2.1.)
63
Frage 64: Wie bestimmt man mit Hilfe eines Photometer die Konzentration von Lösungen?
Sendet man Licht durch eine Küvette, die eine bestimmte Lösung enthält, dann
wird ein Teil des Lichtes von der Substanz absorbiert, der andere durchgelassen,
d.h. der Lichtstrahl wird "geschwächt".
E
Id
Lösung
I0
Aufnahme eines
"Spektrums"
Küvette
λ
In diesem Zusammenhang werden die Begriffe "Durchlässigkeit" und "Extinktion" sehr häufig gebraucht. Man hat definiert:
Die Lichtintensitäten werden mit photometrische Methoden in Apparaten, die als
"Photometer" bezeichnet werden, gemessen. Obwohl man sich natürlich in
erster Linie für die Extinktion der gelösten Substanz interessiert, dürfte natürlich
auch Küvette und Lösungsmittel einen bestimmten Beitrag liefern. Durch
Messen gegen eine "Referenzküvette", die nur das Lösungsmittel enthält, kann
man deren Beiträge jedoch eliminieren. Für die gelöste Substanz gilt dann das
Lambert-Beersche Gesetz:
Der Extinktionskoeffizient ε muß für jede Substanz ermittelt werden, indem
man die Spektren von Lösungen mit bekannter Konzentration aufnimmt. Kennt
man ihn (z.B. 1000 cm-1M-1), so kann man (die Schichtdicke der meisten
Küvetten ist 1 cm) aus der gemessenen Extinktion die Konzentration der
Lösung bestimmen. Die Fotometrie wird vorwiegend in der Biochemie verwendet, z.B. als "Optischer Test" zur Bestimmung von Enzymaktivitäten bzw.
der Sauerstoffkonzentration im Blut (Soretbande und Sauerstoffbindung von
Hämoglobin!). (vgl. Skript, 10.3.1.)
64
Frage 65: Mit welcher optischen Meßmethode kann man Zucker im
Harn quantitativ bestimmen?
Leider besitzen nicht alle Verbindungen eine Absorption im sichtbaren Wellenlängenbereich oder
im UV-Bereich. Solche Substanzen wie z.B. Zucker können nicht
über das Lambert-Beer Gesetz bestimmt werden. Glücklicherweise
kann man die Konzentration dieser
Substanzen auch anders bestimmen.
Viele Substanzen sind optisch aktiv (z.B. Zucker, Aminosäuren usw.). Das
bedeutet, daß sie die Ebene des linear polarisierten Lichtes (vgl. Abb.) drehen
können. Ein typisches Polarimeter (vgl. Praktikum) besteht aus einer Lichtquelle, einem Polarisator (der nur Licht einer bestimmten Schwingungsebene
passieren läßt), der Küvette mit der zu untersuchenden Lösung und einem
Analysator, der gegenüber dem Polarisator gedreht werden kann. Ganz analog
wie bei der Photometrie ist bei der Polarimetrie der Winkel um den die Probe
die Schwingungsebene des Lichtes dreht der Konzentration der eingesetzten
Substanz proportional:
αs bezeichnet man als das spezifische Drehvermögen. Dieser Wert ist für alle
Substanzen eine spezifische Materialkonstante. Hat man sie ermittelt, so kann
man die Konzentration von z.B. Zucker im Harn bestimmen. Allerdings wird
dieses vergleichsweise alte Verfahren in der heutigen Zeit mehr und mehr durch
enzymatische Verfahren (z.B. GOD-Test) ersetzt, da enzymatische Verfahren in
der Regel schneller durchzuführen und außerdem genauer und empfindlicher
sind. (vgl. Skript, 10.3.2.)
65
Herunterladen