Practical Numerical Training UKNum Statistik, Datenmodellierung PD. Dr. C. Mordasini Max-Planck-Institute für Astronomie, Heidelberg Programm: 1) Repetition elementare Statistik 2) Regressionsanalyse 3) Lineare Regression 4) Nicht-lineare Regression 1 Elementare Statistik and is evaluated by dividing the sum of individu characteristics) or not. The arithmetic mean of a sample is a m Consider Table 1 which 14 measureme and is evaluated by dividing the sum of individual data points b 3 Table 1 Chlorate ion concentration mmol/cm produced in a chemical reactor operated of at the a pH Consider Table in 1 which 14 measurements con Einfache statistische Grössen I produced in a chemical reactor operated at a pH of 7.0. 15.9 11.5 14.8 11.2 13.7 15.9 12.0 15.0 14.1 Studiere ein statistisches Datensample mit n Werten, z.b. Messwerten. • 3 mmol/cm Table 1 Chlorate ion concentration in Table 1 Chlorate ion concentration in mmol/cm •Das Sample/Stichprobe kann mit sogenannten Momenten charakterisiert 12.0 15.0 14.1 15.915.9 11.5 14.8 11.2 13.7 11.2 15.9 1 12.0 15.0 14.1 11.5 14.8 werden. Dies sind Summen von ganzzahligen Potenzen der Werte. The arithmetic mean y is mathematically defined as n Arithmetischer Mittelwert The arithmetic mean y is mathematically defined as n The arithmetic mean is mathematically defin y y Wert der Messwerte an Gibt den mittleren i y i 1 y n yi i 1 n yi n i 1 of the individual data points y divided by th which is the sum i y One of the of the spread the data is the which is the sum of the individual data points byran y iof divided n measures definedoder as theder difference between the maximum and minimum Alternativen sind derwhich Median Mode. is Rtheof sum of the individual data points y One of the measures the spread of the data is the ra y max y min Rangeas the difference One of thethe measures of theand spread of the wherebetween defined maximum minimum is the maximum ofbetween the values ofthe y maxthe yi , maximum i 1,2,..., n, defined as difference R y max y min y min is the minimum of the values of yi , i 1,2,..., n. . where R Problem: Ausreisserwhere y max y min However, range may not give a good idea of the sp points may be far away from most other data points (such d i min y min is the minimum of the values of yi , i 1,2 Einfache statistische Grössen II However, range may not give a good However, range may not give a good idea o points maybebefarfaraway away from data points may from mostmost otherother data points Residuum/Fehler That is why whythe thedeviation deviation from the average or That is from the average or arithm measure einem the The residual between the ist data measure thespread. spread. The residual between thepod Das Residuum i zwischen Datenwert i und dem Mittelwert eei i yyi i y y Thepositiv difference ofofeach data point fromdie theSumme mean can Das Residuum kann oder negativ sein, daher kann The difference each data point from the me which side of the mean the data point lies (recall the der Residuen über das ganze Datensample (zufällig) gleich Null sein which side of the mean the data point lies (reca one gegenseitig calculates the sum of können. such differences to find t da sich die Residuen auslöschen Daher ist die one calculates the sum of such differences to simply eachein other. ThatMass. is why the sum of the Summe der Quadrate dercancel Residuen besseres simply each other. That why the sum a better cancel measure. The sum of the is squares of the di aerror better measure. Thebysum of the squares of (SSE), S t , is given Summe der Fehlerquadrate error (SSE), nS t , is given by 2 St n i 1 yi y 2 S y y t i Since the magnitude of the summed squared error is d Der Betrag der Summe der Fehlerquadrate ist offensichtlich von der i 1 Anzahl Datenpunkte abhängig. Daher suchen wir einen Mittelwert. an average value of the summed squared error is defin Since the magnituden of the summed squared err simply cancel each other. That is why the sum of the square of the dif a better measure. The sum of the squares of the differences, also ca error (SSE), S t , is given by Einfache statistische Grössen III n St (Stichproben-)Varianz yi y 2 i 1 Since the magnitude of the summed squared error is dependent on the n Ein Mittelwert der Summe der Fehlerquadrate ist die an average value of the summed squared error is defined as the variance (Stichproben-)Varianz n yi y 2 St i 1 n 1 n 1 2 The variance, sometimes two differentweil convenient Die Stichprobenvarianz wird mitis (n-1) und written nicht ninberechnet wir form 2 den Mittelwert selbst schon aus der Stichprobe berechnet haben. Dies bedeutet dass wir einen Freiheitsgrad verloren haben, denn wenn wir den Mittelwert und n-1 Datenpunkte kennen, können wir den n-ten Wert berechnen. Ist der Mittelwert extern gegeben (nicht durch von der Stichprobe her berechnet), sollte n statt n-1 verwendet werden. The standard deviation of (14.1.6) as an estimator of the kurtosis of an underlying ! ! when it is the sample estimate (14.1.3). However, the kurtosis depends such normal distribution is 96/N when σ is the true standard deviation, and on24/N a high that there are (14.1.3). many real-life distributions for which the on standard when it ismoment the sample estimate However, the kurtosis depends such deviation of (14.1.6) as an is effectively infinite.for which the standard a high moment that there areestimator many real-life distributions Calculation of as thean quantities defined in this section is perfectly straightforward. deviation of (14.1.6) estimator is effectively infinite. Many textbooks use the binomial theorem to expand out the definitions into sums Calculation of the quantities defined in this section is perfectly straightforward. Varianz Fortsetzung of various powers of the data, e.g., the familiar Many textbooks use the binomial theorem to expand out the definitions into sums Numerisch Varianz in verschieden the familiar Arten geschrieben werden: of various kann powersdie of the data, e.g., N & 1 2 2 2 − x2 − N ≈ x x x (14.1.7) Var(x1 . . . xN ) = j N N1 − 1 & j=1 2 xj − N x2 ≈ x2 − x2 (14.1.7) Var(x1 . . . xN ) = N −1 j=1 but this can magnify the roundoff error by a large factor and is generally unjustifiable inSchreibweise terms of computing speed. A clever way(bei to minimize roundoff error, especially Eine die Rundungsfehler grossen N) reduziert ist der butfor this can samples, magnify the roundoff error by a large factoralgorithm and is generally unjustifiable [1]: First calculate x, large is to use the corrected two-pass korrigierte pass Algorithmus. Dabei wird zuerst der Mittelwert in then termscalculate oftwo computing speed. A clever way to minimize roundoff error, especially Var(x1 . . . xN ) by berechnet, und dann Varianz als two-pass algorithm [1]: First calculate x, for large samples, is to die use the corrected 2 then calculate Var(x1 . . . xN ) by N N & 1 & 1 (14.1.8) (xj − x)2 − (xj − x)2 Var(x1 . . . xN ) = N − 1 N N N & & j=1 j=1 1 1 (xj − x) (14.1.8) (xj − x)2 − Var(x1 . . . xN ) = N −1 N j=1 j=1 The second sum would be zero if x were exact, but otherwise it does a good job of correcting the roundoff error in the first term. The second sum would be zero if x were exact, but otherwise it does a good job of Einfache statistische Grössen IV However, why is the variance divided by (n 1) an However, why is the variance divided by This is because with the use of the mean in calcul This is because with the use of the mean independence of one of the data points. That is, if you kno onen of thepoints data points. That is, i the independence value of one ofofthe data can be calculated the value of one of the n data points can be ca Standardabweichung points. Um ein Mass points. der Streuung den gleichenback Einheiten wie die level of un To bring inthe variation to the same Messgrössen zu standard haben, ist die Standardabweichung als Wurzel der called deviation, , is defined as To bring the variation back to the same le Einfache statistische Grössen V Varianz gegeben: called standard deviation, n yi y 2 , is defined as n St i 1 2 y y i n 1 S n 1 t i 1 Furthermore, the ratio of the standard deviation to Variationskoeffizient n 1 the spread of a sam 1 to normalize variation c.v is alson used Das Verhältnis von Standardabweichung Mittelwert iststandard ein relatives, Furthermore, thezuratio of the dev c.v für die 100 dimensionsloses Mass Streuung im Sample variation yc.v is also used to normalize the spread Example 1 c.v 100 [%] y Use the data in Table 1 to calculate the Einfache statistische Grössen VI That being the case, the skewness or third moment, and the kurtosis or fourth ment should be used with caution or, better yet, not at all. The skewness characterizes the degree of asymmetry of a distribution around its n.Skewness While the mean, standard deviation, and average deviation are dimensional (Schiefe) ntities, that is, have the same units as the measured quantities x j , the skewness Auch bekannt als das dritte Moment, charakterisiert es das Ausmass onventionally defined in such a way as to make it nondimensional. It is a pure derthat Asymmetrie eine Verteilung Messdaten umThe den Mittelwert. Esisist ber characterizes only the shapevon of the distribution. usual definition eine dimensionslose Grösse. " # N 3 ! xj − x 1 606 14. Skew(xChapter ) = Statistical Description of Data (14.1.5) 1 . . . xN N j=1 σ re σ = σ(x1Skewness . . . xN ) is the distribution’s standard Kurtosis deviation (14.1.3). A positive e of skewness signifies a distribution with an asymmetric tail positive extending out (leptokurtic) ards more positive x; a negative value signifiesEin a negative distribution whose tail extends positiver Wert entspricht positive towards negative more negative x (see Figure 14.1.1).(platykurtic) einer asymmetrischen Verteilung Of course, any set of N measured values is likely to give nonzero for mit einem Tailader gegenvalue positive 1.5), even if the underlying distribution is in factWerte symmetrical skewness). weisst.(has Derzero Modus ist (14.1.5) to be meaningful, we need to have some ideaalsofder its Mittelwert. standard deviation kleiner et al. 1992 of the skewness of the underlying distribution. Unfortunately, that nPress estimator estimated by the sample mean, (14.1.1). In real life it is good practice to believe in skewnesses only when they are several or many times as large as this. The kurtosis is also a nondimensional quantity. It measures the relative peakedness or flatness of a distribution. Relative to what? A normal distribution, what else! A distribution with positive kurtosis is termed leptokurtic; the outline of the Matterhorn is an example. A distribution with negative kurtosis is termed Kurtosis (Wölbung) platykurtic; the outline of a loaf of bread is an example. (See Figure 14.1.1.) And, Auch das vierte Moment bekannt, charakterisiert as you als no doubt expect, zentrale an in-between distribution is termed mesokurtic. die The conventional definition the kurtosis Es is ist eine dimensionslose Kurtosis die Spitzigkeit einerofVerteilung. Grösse. #4 N " 1 ! xj − x tical Description of Data −3 (14.1.6) Kurt(x1 . . . xN ) = N σ Einfache statistische Grössen VII j=1 Kurtosis negative (platykurtic) Sample page from Copyright (C) 198 Permission is gra readable files (inc http://www.nr.com (b)et al. Press positive (leptokurtic) Eine Verteilung mit einer positiven Kurtosis heisst leptokurtisch. Ein Beispiel ist das Matterhorn. Eine oben abgeflachte Verteilung ist im Gegensatz platykurtisch. Als Referenz wird die Gaussverteilung verwendet. Höhere Moment wie die Skewness und Kurtosis sind weniger robust als der Mittelwert oder die Standardabweichung. 3/2 A Poisson A Gaussian distribution hasSkew(x) all its semi-invariants higher than I22 equal to zero. (14.1.12) = I3 /I2 Kurt(x) = I4 /I 2 distribution has all of its semi-invariants equal to its mean. For more details, see [2]. Einfache statistische Grössen VIII A Gaussian distribution has all its semi-invariants higher than I2 equal to zero. A Poisson distribution has all of its semi-invariants equal to its mean. For more details, see [2]. Median and Mode Median Median and Mode Der Median The medianeiner of a Wahrscheinlichkeitsverteilung probability distribution functionp(x) p(x)istisder the Wert valuexxmed med for für welchen grössere und kleinere von x gleich which larger smaller values of xdistribution areWerte equally probable: The and median of a probability function p(x) iswahrscheinlich the value x med for which larger and smaller sind. # ∞probable: # xmedvalues of x are equally 1 xmed p(x) dx = 1 = # ∞ p(x) dx −∞ p(x) dx =2 = xmed p(x) dx # −∞ 2 xmed (14.1.13) (14.1.13) The median of a distribution is estimated from a sample of values x 1 , . . . , The median of a distribution is estimated from a sample of values x 1 , . . . , Der Median einer Stichprobe x ,..., x ist der Wert x der dieselbe 1 N i xN by finding that value x i which has equal numbers of values above it and below xN by finding that value x i which has equal numbers of values above it and below grössere und kleinere when WerteNhat. Offensichtlich gibtit es dies nicht it. Anzahl Ofit. course, this is not possible is even. In that case is conventional Of course, this is not possible when N is even. In that case it is conventional N gerade ist. In diesem Fall ist es die Konvention, den Mittelwert to falls estimate the median as the mean of the unique two central values. values to estimate the median as the mean of the unique two central values. If If thethe values zentralen Werte zu verwenden. die matter, Datenpunkte in order, j x=jzwei . ,.N sorted into for matter, descending) order, xj der j1,=. .1, . . ,are N are sorted intoascending ascending(or, (or,Falls for that that descending) then the formula for thegeordnet median ansteigendem Wert heisst dies formelmässig: then the formula for the medianissind, is $ $x N x(N(N ,, N odd odd +1)/2 +1)/2 xmed (14.1.14) xmed (14.1.14) ==1 1 (x ), N even N/2++xx (N/2)+1), (x N even 2 N/2 (N/2)+1 2 Press et al. Einfache statistische Grössen VIII Modus Der Modus einer Wahrscheinlichkeitsfunktion p(x) ist der Wert x wo p den maximalen Wert annimmt. Bei einer empirischen Häufigkeitsverteilung ist es einfach der häufigste Wert. Der Modus ist vor allem hilfreich wenn die Verteilung ein einziges, relativ scharfes Maximum enthält. Gelegentlich treten aber bimodale Verteilungen mit zwei relativen Maxima auf. Dann sollte man beide Werte individuell kennen. Denn sowohl Modus wie auch Mittelwert sind in diesem Fall keine sehr nützlichen Grössen, da sie nur einen “Kompromiss” zwischen dein zwei Maxima darstellen. In der Physik können solche bimodalen Verteilungen ein Hinweis sein, dass zwei unterschiedliche Mechanismen wirken. Press et al. 2 Regressionsanalyse Regressionsanalyse Was ist Regressionsanalyse? Die Regressionsanalyse liefert (quantitative) Informationen über die Beziehung einer abhängigen Variable und einer oder mehrerer unabhängiger Variablen, soweit eine solche Beziehung in einem Datensatz enthalten ist. Sie wir benützt für 1. Prognosen 2. Modellanpassung (Parameter Bestimmung) 3. Modellvalidierung Bei der Regressionsanalyse liegt die Betonung auf der Untersuchung der Art der Beziehung zwischen physikalischen Grössen (die als nicht fehlerbehaftet angenommen werden). Bei der verwandten Ausgleichsrechnung (Fitting) geht es hingegen primär darum, die Parameter eines gegeben Modells zu bestimmen, unter Beachtung der Fehler der einzelnen Messungen. Methods MethodeLeast derSquares kleinsten Quadrate This is the most popular metho models. It has well known probab regression parameters with the smalles We wish to predict the respon Wir wollen das Verhältnis von n Messdaten (x1,y1),(x2,y2),......,(xn,yn) durch ein Regressionsmodell also by regressionf ausdrücken, model given y f (x) wobei die Funktion f von a priori where, the unbekannten function Regressionsparametern f (x) has regressi abhängt. Diese müssen nun abgeschätzt werden. Wichtige Beispiele: For example f(x) = a + a x Einfache lineare Regression mit den Parametern a und a f (Modell x ) mita0den Parametern a1 x is aa straight-li f(x) = a e Exponentielles and a Dies ist die bekannteste Methode um Parameter eines Modells in einer Regressionsanalyse zu schätzen. Die Methode folgt gut bekannten Wahrscheinlichkeitsverteilungen und liefert die Parameter für die die Varianz minimal ist. 0 0 1 0 a x 1 0 1 1 f(x) = a0 + a1x + a2 x2 Quadratisches Modell mit a xParametern a0, a1 und a2 f ( x) a e is an exponential 1 f ( x ) y a0f (xa) 1 x is a straight-line regression mo Methode der kleinsten Quadrate II where, the function f (x) has regression constants that ne a1 x f ( x ) a0 e is an exponential model with cons For example 2 is a quadratic modelmodel with f ( x ) f (ax0) aa01 x a1 xa2isxa straight-line regression Ein Mass für die Güte mit der ein Regressionsmodell f(x) die a1 x f (yx )voraussagt aof is an model with constan measure of fit,des thatResiduums is how the 0 e goodness Abhängigkeit derA Variable istexponential die Grösse 2 Ei bei allen n Datenpunkten. with co f ( x ) ya0is athe a2 x is a quadratic response variable of themodel residual, E 1 x magnitude A measure of goodness of fit, that is how the re Ei yi f ( xi ), i 1,2,....n response variable y is the magnitude of the residual, Ei a E are zero, one may have f Ideally, if all Ethe residuals i yi f ( xi ), i 1,2,....n i Bei einem perfekten Modell wären alle Ei gleich Null. all the Ideally, points iflieallon model.EThus, minimization of th are zero, one may have foun thearesiduals i regression coefficients. the least method, In der Methode derthe kleinsten schätzt mansquares die all points Quadrate lie on aIn model. Thus, minimization of thees r are chosen such thatdieminimization of theder sum of estim the Regressionsparameter so dass Summe derleast Quadrate regression coefficients. In the squares method, n Residuen minimal arewird: chosen 2 such that minimization of the sum of the sq minimize Ei n . minimize i 1 2 Ei . -> minimal i 1 Daher auch Nameminimize “kleinste Quadrate”. Whyderminimize the sum of of the theresiduals? residual Why the sum thesquare square of of the 3 Lineare Regression Lineare Regression Gegeben seinen n Datenpunkte . Bestimme die Regressionsgerade y x Illustration mit Mathematica Parameterschätzung I Die Methode der kleinsten Quadrate minimiert die Summe der quadrierten Residuen des linearen Modelles, und gibt eine eindeutige Regressionsgerade vor. Unsere Aufgabe ist die Bestimmung der Regressionsparameter a0 und a1. Dazu benutzen wir elementare Analysis (Ableitung = 0 bei Maxima/ Minima). Beim Minimum muss für die partiellen Ableitungen gelten (Kettenregel): Parameterschätzung II Dies gibt Linear Regression Linear Regression n nn y i xi a0 a1 n n a0 i 1 i 1 xi xi na a1 a0 a0 aa xx 0 i ai 1 n n i 1 i 1 x xi 2 i n a0 yi i 1 n a0 n xi n 0 a x2 1 i na 0 . . . a0 yi i 1 ai1 1 x i y i2 n i 1 0 i 1 . . . a0 a0 i 1n i 1 0 n i 2 1 i i 1 a0 Noting that i 1 na 0 i i 1 n Da Noting that ya 0xxi i 1 i 1 nn xi n i 1 xi y i na 0 i 1 i 1 i 1 Noting that a a a III ... Parameterschätzung n x3 , y3 0 0 ax02 , y2na 0 0 i 1 na 0 x1 , y1 a1 n ny xi i 1 n Figure 3 Linear regression ofay0 vs.x ix i 1 ypical point, xi . yi a0 a1 x x3 , y3 i 1 n n x 2 1 showing i i i data residuals i 1 i 1 a x x y and square of residual at x1 , y1 Dies können wir als lineares Gleichungssystem mit zwei Gleichungen auffassen und als 2x2 Matrix schreiben wie wir es in der letzten Vorlesung gesehen haben, mit den(14) Unbekannten 0 und aregression 1 (alle xi und Solving the above Equations andFigure (15) gives 3aLinear ofyi ysind vs. bekannt). x data show n n a1 xi y i i 1 n n x i2 ✓n n ◆✓ ◆ ✓ point, xi . y ⌃xtypical a xi n i i i 1 1 y i ⌃x 2 i 2 ⌃xi n xi 0 a1 = ⌃yi ⌃xi yi ◆ xi , yi (16 Solving the above Equations (14) and (15) gives Für so eine kleine Matrix findet man schnell: i 1 i 1 n a0 x i2 i 1 n yi i 1 n n i 1 n xi i 1 x 2 i n i 1 n i 1 2 xi xi y i n a1 n xi y i i 1 x2 ,n y2 x i2 n i 1 n n xi i 1 n i 1 yi i 1 2 xi (17 S xy nS xxx y xi y i S xxi S x y nxy Parameterschätzung IV n i 1 xy i 1 S xx Wir definieren ni n S xx 2 1i ix i 1 n n __ 06.03.6 x x i 1i xi 1 _ _ _2 i x 2 i _2 nx n x_ x n _ xi 1 n xi ix 1 n 06.03.6 n _ y x 2 i n x_ 2 nx i 1 xi i 1 n n yi yi n1i x _ _ nxy n i yi i 1 i 1 n n weycan rewrite n _2 nny _ _ n i 2 S _ xy S x nx S xy i 1 x iyy i n x y xx i a 1 y_ i i 1 we can rewrite i 1 S xx n in 1 n 2 _ _ _ y we can rewrite S 2 x _ a xy y i a x S xx xi n x n 0i 1 1 a1Regressionsgerade Damit können wir die Parameter für die schreiben als Si xy1 x a1 n n S we can rewrite xx S xx n Example 1 x _ _ _ _ Si _ y xy i _ i 1 xaa01 y a1 x The torque to turn the torsional sp i T 1 aneeded a y x 0 y 1 nS below n xx n Table 5 Torque versu Example 1 y_i _ we can rewrite _ S Angle, Example 1 xy i 1 a y a x y 0 T needed1 to turn the torsional a1 The torque spring of a mousetrap throug n _ S xy xn i Beispiel I Geben sei folgendes Datenset. Bestimme die Regressionsgerade gemäss der Methode der kleinsten Quadrate. x y 0.698132 0.188224 0.959931 0.209138 1.134464 0.230052 1.570796 0.250965 1.919862 0.313707 y 0.4000 0.1000 0.5000 2.0000 X Gesucht sind somit a0 and a1 für das lineare Model Beispiel II Einsetzen in die oben genannten Gleichungen führt direkt zu y a0 a1 x 4 Nichtlineare Regression Nichtlineare Regression Einige wichtige nichtlineare Modelle 1. Exponentiell: 2. Power law: 3. Saturation growth: 4. Polynom: Nichtlineare Regression: Exponentiell Gegeben seien n Datenpunkte wobei eine nichtlineare Function von bestimme ist via die Methode der kleinsten Quadrate. Figure. Nonlinear regression model for discrete y vs. x data Beispiel Exponentielles Modell Parameter a und b zu bestimmen! € Exponentiell: Bestimme Parameter I Die Summe der Quadrate der Residuen ist gegeben als n Sr = ∑ ( y i − ae i=1 bx i ) 2 Bestimme Minimum: Leite ab nach a und b und setze gleich Null. n ∂Sr bx i bx i = ∑ 2( y i − ae )( −e ) = 0 ∂a i=1 n ∂Sr bx i bx i = ∑ 2 y i − ae ( −ax ie ) = 0 ∂b i=1 ( ) Exponentiell: Bestimme Parameter II Ausmultiplizieren liefert (a≠0) Exponentiell: Bestimme Parameter III Die erste Gleichung können wir direkt nach a lösen: n ∑y e bx i i a= i=1 n ∑e 2bx i i=1 Dies setzen wir in die zweite Gleichung ein. n n i ∑y x e i i=1 y e ∑ € bx i i bx i − i=1 n ∑e i=1 n ∑x e i 2bx i 2bx i =0 i=1 Den Parameter b können wir mit den bekannten numerischen Methoden (z.B. Bisektion) zur Lösung nichtlinearer Gleichungen bestimmen. Sobald b gefunden ist, können wir auch a berechnen. Beispiel - Exponentielles Modell I Radioaktiver Zerfall von Technetium-99m Technetium-99m wird zum Beispiel in der Medizin eingesetzt. Nimm an dass die Aktivität als Funktion der Zeit (relativ zum Anfangswert) gemessen wurde. t(hrs) 0 1 3 5 7 9 1.000 0.891 0.708 0.562 0.447 0.355 Wir wissen dass der radioaktive Zerfall einem exponentiellen Zerfallsgesetz folgt. Führe daher eine Regression mit dem exponentiellen Modell durch. Beispiel - Exponentielles Modell II Die relative Intensität soll deshalb durch das Modell Bestimme: a) Die Werte der Regressionsparameter b) Die Halbwertszeit von Technetium-99m c) Die Intensität nach 24 Stunden beschrieben werden. und Bestimmung der Parameter Der Wert von λ ist durch die nichtlinear Gleichung gegeben: € n ∑γ e n λt i i f ( λ ) = ∑ γ i t ie λt i − i=1 n 2 λt i i=1 n ∑γ e λt i i A ist dann: A= i=1 n ∑e i=1 ∑t e i ∑e i=1 n 2 λt i i=1 2 λt i =0 Lösung der nichtlinearen Gleichung Damit lässt sich A berechnen: 6 ∑γ e λt i i A= i=1 6 ∑e 2 λt i i=1 Muss ja so sein... Vergleich Daten und Regression T1/2 = ln(1/2) = T1/2 = 6.022 hrs ln(2) Relative Intensität nach 24 Stunden Diese ist offensichtlich gegeben als In anderen Worten, nach 24 Stunden sind noch der anfänglichen Aktivität vorhanden. Linearisation von Daten I Die Bestimmung der Parameter nichtlinearer Modelle kann auf gekoppelte, nichtlineare Gleichungssystem führen, die schwierig zu lösen sind. Deshalb ist es manchmal besser die Daten zu linearisieren, falls dies möglich ist. Für den exponentiellen Zerfall ist dies der Fall. Gegeben sei das exponentielle Modell Wir wenden den natürlichen Logarithmus an, dies gibt Sei , und Offensichtlich habe wir nun ein lineares Modell mit den Parametern a0 und a1 Sobald a0 und a1 bekannt sind, können wir wieder a und b bestimmen. Linearisation von Daten II Wir wissen n n n n∑ x i zi − ∑ x i ∑ zi i=1 a1 = i=1 2 n ⎛ ⎞ n ∑ x i2 − ⎜ ∑ x i ⎟ ⎝ i=1 ⎠ i=1 n _ Sobald i=1 _ a0 = z − a1 x bestimmt sind, können wir die ursprünglichen Parameter berechnen: € Beispiel - Linearisation von Daten I Radioaktiver Zerfall wie zuvor: 0 1 3 5 7 9 1.000 0.891 0.708 0.562 0.447 0.355 , 0.750 0.500 0.250 0 Exponentielles Modell Es sei Relative intensity of radiation, γ t(hrs) 1.000 0 2 5 Time t, (hours) und Linearisierter Zusammenhang von sodass und 7 9 Beispiel - Linearisation von Daten II Bestimme die linearen Parameter n n wo n n∑ t i zi − ∑ t i ∑ zi a1 = i=1 i=1 i=1 2 n ⎛ ⎞ n ∑ t12 − ⎜∑ t i ⎟ ⎝ i=1 ⎠ i=1 n und Table. Summation data for linearization of data model mit 1 0 1 0.00000 0.0000 0.0000 2 1 0.891 −0.11541 −0.11541 1.0000 3 3 0.708 −0.34531 −1.0359 9.0000 4 5 0.562 −0.57625 −2.8813 25.000 5 7 0.447 −0.80520 −5.6364 49.000 6 9 0.355 −1.0356 −9.3207 81.000 −2.8778 −18.990 165.00 25.000 Beispiel - Linearisation von Daten III Wir finden Da und Das Regressionsmodell ist somit Beispiel - Linearisation von Daten IV Die Halbwertszeit von Technetium 99m ist erreicht wenn Der aus unserem Experiment und Regression bestimmte Wert stimmt recht gut mit dem Literaturwert von ca. 6.01 Stunden überein. Referenzen •Dieses Script basiert auf http://numericalmethods.eng.usf.edu by Autar Kaw, Jai Paul und Numerical Recipes (2nd/3rd Edition) by Press et al., Cambridge University Press http://www.nr.com/oldverswitcher.html