vts_1381. - OPARU

Werbung
Universität Ulm
Medizinische Fakultät
Abteilung Innere Medizin II
Sektion Nephrologie
Sektionsleiter: Prof. Dr. Frieder Keller
Fehlersuche, Fehlerquellenbestimmung
und Vorschlag von Methoden
zur Qualitätssicherung in der
pharmakokinetischen Datenbasis
NEPHARM
Dissertation zur Erlangung des Doktorgrades der Medizin der
Medizinischen Fakultät der Universität Ulm
vorgelegt von
Silvia Seles
geboren in Stuttgart
Ulm 2000
Amtierender Dekan: Prof. Dr. R. Marre
1. Berichterstatter:
Prof. Dr. F. Keller
2. Berichterstatter:
Prof. Dr. D. Grab
Tag der Promotion:
16.05.2002
2
Inhaltsverzeichnis
Seite
1.
Einleitung
8
1.1
8
Allgemeiner Teil
1.1.1 Pharmakokinetik
10
1.1.2 Methoden der Dosisanpassung
12
1.1.3 Klinische Relevanz
14
1.1.4 Projekt WAIN
15
(Wissensbasis für ein allgemeines Arzneimittelinformationssystem)
1.2
2.
17
1.2.1 Physikalisches Literaturarchiv
17
1.2.2 Pharmakokinetische Datenbasis NEPHARM
17
Methoden
18
2.1
Physikalisches Literaturarchiv
18
2.2
Beschaffung der Primärliteratur, Auswahl relevanter
pharmakokinetischer Parameter und Transkription
19
Pharmakokinetische Datenbasis
19
2.3.1 Struktur der pharmakokinetischen Datenbasis
19
2.3.2 Methoden zur Fehler- und Fehlerquellensuche
28
2.4
Fehlersuche und Fehlerquellenbestimmung
34
2.5
Grundlagen zu Datenbanken
39
2.3
3.
Aufgabenstellung
Ergebnisse
42
3.1
Bestandsaufnahme der pharmakokinetischen Datenbasis
42
3.1.1 Rohdaten und Daten des Extracts im Vergleich
42
3.1.2 Auswertung der Parameter in der Rohdatenbank und im Extract 42
3.2
Bestandsaufnahme des physikalischen Literaturarchivs
45
3.3
Geringe Standardisierung der Primärliteratur als Fehlerquelle
48
3.4
Transkription als Fehlerquelle
49
3.5
Interindividuelle Unterschiede bei der Dateneingabe
50
3.6
Auswertung der Fehler- und Fehlerquellenbestimmung
50
3.6.1 Berechnung der Umrechnungsfaktoren
50
3.6.2 Auswertung der Konsistenztests
51
3.6.3 Auswertung der Plausibilitätstests
53
3
3.6.4 Vergleich der Ergebnisse des Plausibilitätstests mit denen des
Konistenztests
4.
55
3.7
Klassifizierung der Fehler
57
3.8
Methoden zur Sicherstellung der Datenkonsistenz
61
3.8.1 Doppelte Dateneingabe
61
3.8.2 "Vier-Augen-Prinzip"
61
3.8.3 Bestimmung von Integritätsbedingungen
61
3.8.4 check-Klauseln
62
3.8.5 Bestimmung von Datentypen von Datenfeldern
62
3.8.6 not null-Klausel
63
3.8.7 Anwendungslogik
63
3.8.8 Trigger
63
3.8.9 Protokoll über Datenänderungen
63
Diskussion
65
4.1
Pharmakokinetische Literatur
65
4.2
Transkription pharmakokinetischer Daten
66
4.3
Lösungsvorschläge zur Vermeidung von Sortierungsfehlern
im physikalischen Literaturarchiv
67
Dateneingabe
68
4.4.1 Gewichtung der Fehler bei der Dateneingabe
68
4.4.2 Strukturierung der Dateneingabe
69
4.4.3 Änderungen am Eingabeformular
69
4.4.4 Identifizierung "unbekannter Literaturquellen"
71
4.4.5 Doppelte Dateneingabe
71
4.4.6 Qualitätskontrolle der Daten
72
4.5
Datenanalyse
73
4.6
Aktualisierung des Ausgabemoduls
73
4.7
Sicherung des Computersystems
74
4.8
Empfehlungen
74
4.4
5.
Zusammenfassung
77
6.
Literatur
79
7.
Danksagung
93
8.
Lebenslauf
94
4
Abkürzungsverzeichnis
Aelim
-
eliminierte Menge eines Medikamentes mittels einer
Nierenersatztherapie
C
-
Konzentration
CAPD
-
kontinuierliche ambulante Peritonealdialyse
CAVH
-
kontinuierliche arterio-venöse Hämofiltration
CCR
-
Kreatinin-Clearance
Clnonren
-
nicht-renale Clearance
Clrenal
-
renale Clearance
Clss
-
Clearance bei steady-state
Cltot
-
Gesamtkörper-Clearance
Cltot/F
-
Gesamtkörper-Clearance nach oraler Dosierung
Cmax
-
maximale Gleichgewichtskonzentration bei wiederholter
Dosierung
Cmin
-
minimale Gleichgewichtskonzentration bei wiederholter
Dosierung
Css
-
Konzentration bei steady-state
CVHF
-
kontinuierliche venöse Hämofiltration
cvvHD
-
kontinuierliche veno-venöse Hämodialyse
D-EC50
-
Dosis, bei der 50% der maximalen Wirkung eines
Medikaments erzielt wird
D-IC50
-
Dosis, bei der 50% der maximalen Inhibition eines
Medikaments erzielt wird
Dim.
-
Dimension
Dmax
-
maximale Dosis
Dmin
-
minimale Dosis
EC50
-
Konzentration bei 50% der maximalen Wirkung eines
Medikaments
Emax
-
maximale Wirkung
F
-
Bioverfügbarkeit
fp
-
freier, nicht eiweißgebundener Plasmaanteil eines
Medikaments
FRelim
-
Eliminationsfraktion
5
Frühgeb.
-
Frühgeborene
GFR
-
glomeruläre Filtrationsrate
H
-
Hill-Koeffizient
HD
-
Hämodialyse
HF
-
Hämofiltration
HP
-
Hämoperfusion
i.v.
-
intravenös
IC50
-
Konzentration bei 50% der maximalen Inhibition eines
Effektparameters
IPD
-
Intermittierende Peritonealdialyse
ka
-
Absorptionskonstante
ke
-
Eliminationskonstante
Km
-
Michaelis-Menten-Konstante, die der Substratkonzentration
bei halbmaximaler Metabolisierungskapazität entspricht
Leberinsuff.
-
Leberinsuffizienz
MRTdyn
-
mittlere dynamische Verweilzeit
MRTkin
-
mittlere kinetische Verweilzeit
Neonat.
-
neonatal
Pat.Zahl
-
Patientenzahl
PB%
-
Plasmabindung einer Substanz
RenFR
-
renale Fraktion
RPF
-
renaler Plasmafluß
Tabs1/2
-
Absorptionshalbwertszeit
Tdeep1/2
-
Eliminationshalbwertszeit eines tiefen Kompartiments
Tdistrib1/2
-
Verteilungshalbwertszeit
Tdyn1/2
-
pharmakodynamische Halbwertszeit
Tkin1/2
-
pharmakokinetische Halbwertszeit
Vd
-
Verteilungsvolumen
Vd/F
-
Verteilungsvolumen nach oraler Applikation
Vmax
-
maximale Metabolisierungskapazität
Vss
-
Verteilungsvolumen bei steady-state
Vss/F
-
Verteilungsvolumen bei steady state nach oraler Applikation
6
In Dankbarkeit meinen Eltern gewidmet
7
1.
Einleitung
1.1
Allgemeiner Teil
"Die Pharmakokinetik stellt einen Teilbereich der allgemeinen Pharmakologie dar. Sie
beschreibt die Einflußnahme des Organismus auf das Pharmakon, wohingegen die
Pharmakodynamik die Einflußnahme des Pharmakons auf den Organismus kennzeichnet"
(Lauven PM 1995, Benet LZ 1995, 1984).
Schon vor mehr als 400 Jahren wurde die direkte klinische Anwendbarkeit der Pharmakokinetik durch die Aussage des Arztes Paracelsus "Alle Dinge sind Gift und nichts ist ohne
Gift; nur die Dosis macht´s, daß ein Ding kein Gift ist" vorgezeichnet. "Grundlage ist die
Tatsache, daß zwischen der Plasmakonzentration und dem pharmakologischen Effekt eine
bessere Korrelation besteht als zwischen der Dosis und dem Effekt" (Weiss M 1990).
Veränderungen der Pharmakokinetik und somit auch der Plasmakonzentration eines
Arznei-mittels sowie der Pharmakodynamik sind altersabhängig (Tsujimoto G 1989).
Diese Veränderungen der Pharmakokinetik werden zum einen durch die Polypharmazie
und Wirkstoffinteraktionen im Alter (Chutka DS et al. 1995, Sitar DS 1993, Terezhalmy
GT 1989) und zum anderen durch altersphysiologische Veränderungen des Organismus
bewirkt (Woodhouse KW 1994, Birnbaum LS 1991). Die Erhöhung der Prävalenz für
Erkrankungen mit zunehmendem Alter machen eine Polypharmazie notwendig (Sitar DS
1993, Grymonpre RE 1991, Terezhalmy GT 1989). Altersphysiologische Veränderungen
betreffen z.B. Absorption (Anstieg des pH-Wertes im Magen), Verteilung (Abnahme des
Wassergehaltes und Zunahme des Fettgehaltes im Körper), Metabolisierung (Abnahme der
Lebergröße, Abnahme des Blutflusses in der Leber) und Exkretion (Abnahme der
glomerulären Filtration, Abnahme des renalen Plasmaflusses, Abnahme der tubulären
Funktion) der Arzneimittel (Woodhouse KW 1994, Williams L 1992, Ishizaki T 1992,
Birnbaum LS 1991, Fillastre JP 1990). Die wichtigste altersphysiologische Veränderung,
ist die Abnahme der exkretorischen Kapazität der Niere (Turnheim K 1998, Crooks J
1981). Eine Vielzahl von altersabhängigen strukturellen und funktionellen Veränderungen
wurden beschrieben (Meyer BR 1989): Zu den strukturellen Veränderungen zählen die
renale Gewichtsabnahme, die Glomerulosklerose, die interstitielle Fibrose etc. (Muhlberg
W et al. 1999, Niederstadt C 1997), die funktionellen Veränderungen betreffen den renalen
Plasmafluß (RPF), die glomeruläre Filtrationsrate (GFR), den renalen Salz-WasserHaushalt und die renale Konzentrationsfähigkeit (Kokot F 1996, Epstein M 1979). Neben
8
diesen "Alterseffekten" sind auch die nephrotoxischen Effekte zu nennen, die ebenfalls
Auswirkungen auf die Pharmakokinetik haben (Meyer BR 1989): Arzneimittel wie NSAR,
Antibiotika, Diuretika, sowie chronische Erkrankungen wie arterieller Hypertonus,
Diabetes mellitus, Arteriosklerose etc. zählen zu den potentiell nieren-schädigenden
Faktoren (Muhlberg W et al. 1999, Zauderer B 1996). Es besteht eine große
interindividuelle Variabilität sowohl bezüglich der altersphysiologischen Veränderungen,
als auch bezüglich der Reaktionen auf exogene (Arzneimitteltherapie) und endogene
Faktoren (chronische Erkrankungen). Generell läßt sich jedoch sagen, daß im Mittel
Wirkstoff-konzentrationen im Alter höher sind, da die Exkretion verzögert ist (GundertRemy U 1995). Der altersphysiologische Clearance-Verlust beträgt etwa 1 ml/min/Jahr. In
Wirklichkeit sind alle Patienten über 65 Jahre niereninsuffizient (Keller F et al. 1997).
Somit ist es notwendig, die Arzneimitteldosis bei älteren Patienten anzupassen, indem man
die altersabhängige Abnahme der Nierenfunktion berücksichtigt, damit der Patient ein
Maximum
an
Nutzen
(im
Sinne
von
Vermeidung
einer
subtherapeutischen
Unterdosierung) und ein Minimum an Nebenwirkungen (im Sinne von Vermeidung der
toxischen Überdosierung) erfährt (Gundert-Remy U 1995, Keller F et al. 1996, Bakris GL
1993, Lowenthal 1987).
Optimale therapeutische Dosierungen im Alter konnten bisher für die meisten Wirkstoffe
noch nicht festgelegt werden (Turnheim K 1998). Zudem dürfte kaum ein Arzt in der Lage,
alle Arzneimittel zu kennen, deren Elimination von der Nierenfunktion abhängig ist, und
die somit einer Dosisanpassung bedürfen (Grams RR 1996).
Für die individuelle Dosisanpassung wurde eine pharmakokinetische Datenbasis
(NEPHARM) entwickelt, welche mit Hilfe computergestützter Algorithmen eine
individuelle Dosisberech-nung durchführen kann.
Ziel der vorliegenden Arbeit war es, die Fehler und Fehlerquellen innerhalb dieser
pharmako-kinetischen Datenbasis (NEPHARM) mit Hilfe verschiedener statistischer Tests
zu bestim-men, zu untersuchen und zu beseitigen. Desweiteren sollten Methoden zur
Sicherung und Verbesserung der Qualität dieser pharmakokinetischen Datenbasis
vorgeschlagen werden. Dazu mußte zum einen das physikalische Literaturarchiv als
Informationsquelle aktualisiert und vervollständigt, die Struktur und der Weg der
Datenakquisition und Datensynthese nachgezeichnet, und verschiedene Tests auf ihre
Anwendbarkeit
überprüft
werden
und
zum
anderen
Veränderungen an der Datenbasis vorgenommen werden.
9
verschiedene
strukturelle
1.1.1 Pharmakokinetik
Die Pharmakokinetik ist eine angewandte Wissenschaft, die es dem Kliniker ermöglicht,
Arzneimittel-Serumkonzentrationen und die damit assoziierten pharmakologischen Effekte
vorherzusagen. Die Pharmakokinetik liefert Informationen für das bessere Verständnis der
Pharmakodynamik und für die Dosisbestimmung, um eine Optimierung der Arzneimitteltherapie zu erzielen (Reynolds JR 1993, Reidenberg MM 1993, Benet LZ 1984).
Die besondere Bedeutung liegt darin begründet, daß die Pharmakokinetik von etwa
zweidrittel aller Wirkstoffe direkt oder indirekt abhängig von der Nierenfunktion ist
(Kokot F 1996, Fillastre JP 1991).
Im Folgenden wird auf die wichtigsten pharmakokinetischen Parameter eingegangen, um
die altersabhängigen Veränderungen der Pharmakokinetik aufzuzeigen, die eine
individuelle Dosisanpassung notwendig machen (Lindeman RD 1992, Yuen GJ 1990).
Clearance (Cltot)
Die Gesamtkörperclearance (Cltot) ist das Maß der Ausscheidungsgeschwindigkeit und
setzt sich aus der Summe der renalen und der nicht-renalen Elimination zusammen.
Cltot = Clren + Clnonren
Die nicht-renale Clearance bleibt im Falle einer Niereninsuffizienz bei den meisten
Medikamenten konstant, wohingegen die renale Clearance proportional zur KreatininClearance (CCR) abnimmt.
Clren = a x CCR
Daraus ergibt sich, daß mit eingeschränkter Nierenfunktion die Clearance mit
unterschiedlicher Steilheit (a) der Regressionsgleichung abnimmt.
Cltot = Clnonren + a x CCR
Das Produkt aus Verteilungsvolumen (Vd) und Eliminationskonstante (ke) entspricht
der Gesamtkörperclearance (Cltot).
Cltot = Vd x ke
Die Clearance nach oraler Dosierung kann nur bestimmt werden, wenn die Bioverfügbarkeit (F) eines Pharmakons bekannt ist (Benet LZ 1990).
10
Eliminationshalbwertszeit (Tkin1/2)
Die Eliminationshalbwertszeit (Tkin1/2) ist der Kehrwert der Eliminationskonstanten
(ke).
Die
ke
= ln2/Tkin1/2
Tkin1/2
=
ln2/ke
Tkin1/2
=
ln2 x Vd/Cltot
Eliminationshalbwertszeit
(Tkin1/2)
kann
sich
demnach
mit
dem
Verteilungsvolumen (Vd) oder der Clearance (Cltot) ändern (Benet LZ 1990).
Eiweißbindung
Nierenkrankheiten können mit verschiedenen Veränderungen der Eiweißbindung
einhergehen. Akut entzündliche Nierenkrankheiten führen zu einer Vermehrung des
Alpha-1 Serum-Glykoproteins und können so eine Abnahme des freien Plasmaanteils
der
basischen
Medikamente
bewirken
(Piafsky
1980).
Ausgeprägter
bei
Niereninsuffizienz sind jedoch die Veränderungen der Albuminbindung. Bei
Niereninsuffizienz nimmt die Albuminbindung ab und es kommt zu einer Zunahme des
freien Plasmaanteils (Viani A 1992, Keller F 1987). Als Ursache hierfür kommen eine
verminderte Syntheseleistung für Bindungsproteine in der Leber, Kompetition, also
Verdrängung der Pharmaka aus der Eiweißbindung durch endogene (Urämietoxine)
und exogene Stoffe (andere Arzneimittel mit höherer Plasmabindung), sowie
möglicherweise
qualitative
Veränderungen
der
Bin-dungsproteine
in
Frage
(Heinemeyer G 1990).
Gewebebindung
Das Verteilungsvolumen ist abhängig von der Gewebebindung: Je stärker die Gewebebindung, desto größer das Verteilungsvolumen. Es gibt Hinweise darauf, daß bei
Nieren-insuffizienz die Gewebebindung einiger Medikamente geringer wird. Man kann
anneh-men,
daß
Albuminbindung
Urämietoxine
disku-tiert
die
werden,
auch
ebenso
Gewebebindung führen können (Keller F 1987).
11
als
zu
Ursache
einer
einer
verminderten
Verminderung
der
Verteilungsvolumen (Vd)
Das Verteilungsvolumen nimmt bei Niereninsuffizienz aufgrund der geringeren
Gewebebindung ab. Neben diesem metabolischen Erklärungsmodell gibt es ein rein
kinetisches Modell: Wenn die Eliminationshalbwertszeit bei Niereninsuffizienz
zunimmt, nimmt die Eliminationskonstante ab, und das Verteilungsvolumen wird
kleiner. Eine Abnahme des Verteilungsvolumens bei Niereninsuffizienz ist bereits aus
kinetischen Simulationen bekannt (Gibaldi M 1972, Jusko WJ 1972). Sie ist aber auch
empirisch bei zahlreichen Medikamenten zu beobachten (Gibaldi M 1972, Keller F
1982).
Metabolismus
Die Metaboliten lipophiler Pharmaka sind in der Regel hydrophiler als ihre Ausgangssubstanzen und damit nierengängiger. Sie werden aus diesem Grunde bei
eingeschränkter Nierenfunktion retiniert (Turnheim K 1990). Durch Kumulation kann
es zu unerwünschten Wirkungen, wenn diese kumulierten Metaboliten biologisch aktiv
sind.
Die
Abnahme
der
exkretorischen
Kapazität
der
Niere
stellt
die
wichtigste
pharmakokinetische Veränderung im Alter dar und erfordert eine individuelle
Dosisanpassung, die mit Hilfe der Pharmakokinetik erreicht werden kann (Bjornsson TD
1997, Tsujimoto 1989).
1.1.2 Methoden der Dosisanpassung
"Bei einer Variabilität der pharmakokinetischen Parameter von 30-40% in der Patientenpopulation ist die Individualisierung der Dosierung ein primäres Ziel" (Weiss M 1990).
"Dosisanpassung ist die Kunst, bei unterschiedlicher Pharmakokinetik eine identische
Pharmakodynamik zu erreichen." Dabei soll die Dosisanpassung dazu dienen, sowohl eine
toxische Überdosierung als auch eine subtherapeutische Unterdosierung zu vermeiden
(Keller F 1997). Hierzu stehen verschiedene Möglichkeiten zur Verfügung:
12
Dosishalbierung bei älteren Patienten
In Anlehnung an die Cockcroft & Gault Formel wird generell empfohlen, die Dosis bei
älteren Patienten zu halbieren (Cockcroft DW 1976).
Kreatinin − Clearance =
(140 − Alter ) ⋅ Körpergewicht
0,8 ⋅ Serum − Kreatinin
Proportionalitätsregel nach Dettli
"Die Dosis wird reduziert, oder das Intervall wird verlängert proportional zur
verlängerten Halbwertszeit." (Dettli L 1976)
Dosisindividuell
Dosisnormal
Halbwertszeit normal
=
⋅
Intervallindividuell Intervall normal Halbwertszeitindividuell
Halbierungsregel nach Kunin
"Als Dosierungsintervall empfiehlt Kunin jeweils eine Halbwertszeit" (Kunin CM
1967). "Es kann dann nicht zu einer Kumulation kommen, wenn man jeweils nach
einer Halbwertszeit die Hälfte der Startdosis nachgibt" (Keller F 1997):
Dosisindividuell
0,5 ⋅ Startdosisnormal
=
Intervallindividuell Halbwertszeit individuell
"Wenn es - wie in der Allgemeinpraxis darum geht, Nebenwirkungen zu vermeiden, wäre
die Dettli-Regel vorzuziehen. Wenn es - wie in der Intensivmedizin - besonders darauf
ankommt, eine maximale Wirkung zu sichern, ist die Kunin Regel zu bevorzugen" (Keller
F 1997).
A-priori-Methode (Dosierungsoptimierung ohne Messung des Blutspiegels)
"Die a-priori-Methode geht davon aus, daß das pharmakokinetische Modell und die
individuellen Parameter (bzw. Populationsmittelwerte) bekannt sind und liefert
optimale Dosierungsschemata für den einzelnen Patienten (bzw. für den fiktiven
"mittleren" Patienten), oder die Optimierung erfolgt für die Grundgesamtheit auf der
Basis der Populationscharakteristik, d.h. unter Berücksichtigung der interindividuellen
13
Variabilität. Als klinische Parameter der Patienten kommen in erster Linie das
Körpergewicht und der Serumkreatininwert in Frage" (Weiss M 1990).
Adaptive Methoden
Dosierungsoptimierung mit Kontrollmessung des Blutspiegels
Die Individualisierung der Dosierung wird mit Hilfe von einer Rückkopplung von
Informationen über die individuelle Pharmakokinetik durch Kontrollmessungen des
Blutspiegels erzielt (Weiss M 1990).
Bayesisches Verfahren
"Hierbei werden die pharmakokinetischen Parameter als Zufallsgrößen betrachtet, und
bei der Schätzung der individuellen Parameter fließen zusätzlich a-priori-Informationen
über die Verteilung der Parameter in der Population ein. Die Informationen aus
Blutspiegel-messungen mit Hilfe der a-posteriori-Verteilung der Parameter werden
gefiltert, um Bayesische a-priori-Schätzwerte der individuellen Parameter zu erhalten,
woraus dann individuelle Dosierungsschemata berechnet werden können" (Weiss M
1990, Jelliffe RW 1993).
1.1.3 Klinische Relevanz
Effizienz, Sicherheit und Kosten sind die Faktoren, welche die Qualität einer pharmakologischen Therapie definieren (Dominguez-Gil A 1993).
Um eine optimale Medikamententherapie zu erzielen, ist die Pharmakokinetik als
Basiswissen unentbehrlich. Klinisch interessiert zwar zunächst nicht die Kinetik, sondern
die Wirkung der Medikamente, jedoch ist das pharmakokinetische Teilwissen wesentlich
besser untersucht als sein komplettierender Teil, die Pharmakodynamik, welche sich
schwerer quantifizieren läßt und vorwiegend auf klinische Beobachtungen beruht (Keller F
1987).
Die Vielzahl an biologischen Wirkungen nach Exposition mit chemischen Substanzen
bzw.
Arzneimitteln
ist
auf
die
Heterogenität
der
menschlichen
Bevölkerung
zurückzuführen (Clewell HJ 3rd 1996). Inter- und intraindividuelle Unterschiede in der
Wirkstoffdisposition sind wichtige Faktoren, die zu Wirkstoffkonzentrationen führen, die
außerhalb des therapeutischen Bereiches liegen, besonders weil viele klinisch nützliche
Wirkstoffe eine enge therapeutische Breite haben (Meier-Abt PJ 1993, Lenert L 1989).
14
Zum einen können subtherapeutische zum anderen toxische Wirkstoffkonzentration
erreicht
werden
(Greenblatt
DJ
1992,
Lamy
PP
1982).
Die
Effizienz
der
Arzneimitteltherapie kann jedoch bedeutend verbessert werden, indem die Dosis mittels
pharmakokinetischer Methoden individualisiert wird (Oellerich M 1992). Faktoren wie das
Alter, das Gewicht, die Organfunktionen, der Krankheitsstatus und konkurrierende
Wirkstoffe müssen dabei miteinbezogen werden (Riggs MM 1997, Reynolds JR 1993).
Das pharmakokinetische Wissen ist dabei wichtig, um die maximale Effizienz mit
minimalen
Nebenwirkungen
zu
erreichen
(Dominguez-Gil
A
1993).
Die
Dosierungsvorschläge, die in der Klinik angewendet werden, sind meist komplex,
enthalten unterschiedliche Verordnungsarten, Dosierungsgrößen, Dosierungsintervalle und
Dosierungsdauer (Sebaldt RJ 1987). Vor allem für Pharmaka mit geringer therapeutischer
Breite konnte nachgewiesen werden, daß die computergestützte Dosierung einer auf
Intuition erfahrener Ärzte basierender Dosierung überlegen ist und das Überleben von
Patienten signifikant verbessern kann (Evans WE et al. 1998, Burton ME et al. 1985).
Daher wurden in den letzten 20 Jahren pharmakokinetische Programme für die klinische
Anwendung entwickelt (Buffington DE 1993).
Für
die
Dosisberechnung
mit
individualisierten pharmakokinetischen Parametern sind mittlerweile verschiedene
Methoden verfügbar: z.B. das Bayesische Verfahren oder das Verfahren von Sawchuk und
Zaske (Wakefield J 1996, Merle Y 1995, Jelliffe RW 1993, Buffington BE 1993, Zaske
DE 1991). Weitere computergestützte Systeme sind in der Entwicklung, die schnelle und
einfach zu handhabende individualisierte Berechnungen erlauben (Lenert LA 1992). Die
Integration
pharmakokinetischer
Hilfs-programme
für
die
individuelle
Arzneimitteldosierung spart zum einen Zeit und verbessert zum anderen die Effizienz der
Arzneimitteltherapie (Chrymko MM 1995).
1.1.4
Projekt WAIN
(Wissensbasis für ein allgemeines Arzneimittelinformationssystem)
WAIN war ein MEDWIS (medizinische Wissensbasen) -Projekt und wurde von den drei
Partnern, Nephrologie Ulm, KIS Gießen und Intensiv Ulm getragen. Ziel ist die Erstellung
eines Arzneimittelinformationssystems, das zur Information über Arzneimittel und zur
Optimierung der Arzneimitteltherapie konsultiert werden kann, sowie die Erarbeitung einer
Wissensbasis, die zur entscheidungsunterstützenden und entscheidungsüberwachenden
15
Datenverarbeitungsfunktionen genutzt werden kann, um aktiv zur Qualitätssicherung in der
Pharmakotherapie beizutragen.
Aufgabe von KIS Gießen war die standardisierte Repräsentation des Wissens (ArdenSyntax), die Entwicklung eines Wissensbank-Editors und die prototypische Anwendung
innerhalb eines KIS. Die Nephrologie Ulm erarbeitet die pharmakokinetische Datenbasis
NEPHARM und erstellt die Meta-Analyse der Literatur sowie Algorithmen zur Dosierung
bei Nieren-insuffizienz. Die Intensiv Ulm trägt zur pharmakologischen Datenbasis bei,
bereitet Methoden für die halbautomatische Wissensakquisition vor und entwickelt einen
Prototypen für das Therapie-Monitoring in der Intensivmedizin.
Ausgehend von intensivmedizinischer und nephrologischer Fragestellung wurde die
Erweiterung des Projektes für die Nutzung aus allen Richtungen der Medizin vorbereitet.
1.1.4.1
Pharmakokinetische Datenbasis NEPHARM
Das System besteht aus einem Eingabemodul, der eigentlichen Datenbasis und einem
Ausgabemodul. Mit Hilfe des Eingabemoduls, welches auf einem kommerziellen
Datenbank-system (Microsoft Access= ) basiert, werden Primärdaten, wie Werte für
Parameter, Autorennamen, Titel, Journal, Jahr, Seitenzahlen in einer kontrollierten und
strukturierten Form erfaßt. Für die pharmakokinetische Registrierung werden folgende
Primärschlüssel verwendet: "Generic", "Literatur" und "Parameter". Die Daten werden aus
Primärliteratur bezogen. Dabei wird auf die Primärliteratur in Form von Zitaten verwiesen,
welche in dem physikalischen Literaturarchiv eingeordnet und gesammelt wird. Die
Variabilität und Inhomogenität der verschiedenen Studien führt dazu, daß eine nichtstandardisierte Mischung aus primären, individuellen Daten und statistischen Schätzungen
veröffentlicht wird. Um eine individuelle Schätzung vorzunehmen, muß man sich der
Bayesischen Algorithmen bedienen, welche ihrerseits den Gebrauch von statistischem
Wissen in Kombination mit Meta-Analyse erfordern. Das Ausgabemodul, welches wie das
Eingabemodul auf einer kommerziellen Datenbank (Microsoft Access= ) basiert, liefert
anschließend die Ergebnisse der Meta-Analyse, statistisch transformierte, standardisierte
Werte mit Konfidenzintervallen. Ange-fangen bei der Namensliste können die
dokumentierten Parameter, ergänzt durch Mittelwerte und statistische Schätzungen
abgefragt werden. Es besteht zudem ein Verweis auf die Literaturquelle, um die Daten
jederzeit verifizieren zu können (Keller F et al. 1998, Frankewitsch T et al. 1996).
16
1.2 Aufgabenstellung
1.2.1
Physikalisches Literaturarchiv
Das physikalische Literaturarchiv für NEPHARM besteht zur Zeit aus etwa 3700 Originalartikeln und bildet die Quelle der in der Datenbank erfaßten Daten. Die Primärliteratur ist
alphabetisch nach dem Erstautor abgeheftet, so daß jeder Datensatz, der in der Datenbank
erfaßt wurde, mit Hilfe der Primärliteratur zurückverfolgt werden kann. Das physikalische
Literaturarchiv wird ständig erweitert und aktualisiert.
Die Komplettierung und Sortierung des physikalischen Literaturarchivs war der erste,
vorbe-reitende Teil der Arbeit, um die Verifizierung der in die Datenbank aufgenommenen
Daten-sätze zu ermöglichen.
1.2.2
Pharmakokinetische Datenbasis NEPHARM
Die Fehler und Fehlerquellen innerhalb der pharmakokinetischen Datenbasis ausfindig zu
machen und zu beseitigen war die wesentliche Aufgabe, um als Resultat eine möglichst
gesicherte Qualität der Datenbasis zu erreichen. Für die Fehleranalyse standen folgende
statistische Methoden zur Verfügung:
•
Konsistenztests
•
Plausibilitätstests.
Um die Qualität der Daten innerhalb der Datenbank trotz permanenter Neueingaben beizubehalten, mußten Möglichkeiten zum Teil basierend auf den Ergebnissen der
Fehlerquellen-suche, zum Teil basierend auf allgemeinen Grundlagen der Datenbanken
gefunden werden, bisherige Fehler zu vermeiden.
17
2.
Methoden
2.1. Physikalisches Literaturarchiv
Das physikalische Literaturarchiv als Quelle aller in die Datenbasis eingegebenen Informationen bildet die Grundlage für die Verifizierung der Daten.
Die Vollständigkeit der Literatursammlung muß garantiert werden, nicht nur weil die
Datenverifizierung ermöglicht werden soll, sondern auch, weil das physikalische
Literaturarchiv einer ständigen Aktualisierung unterliegt.
Aus diesem Grunde mußte eine Literaturliste für die Bestandsaufnahme erstellt werden.
Dies kann mit Hilfe der pharmakokinetischen Datenbasis erreicht werden, da sich die dort
eingegebenen Datensätze auf die abgehefteten Artikel beziehen.
Folgende Informationen wurden auf der Literaturliste dokumentiert:
-
Name des Erstautors
-
Titel
-
Name des Journals
-
Erscheinungsjahr
-
Band
-
Seitenangaben
Die auf diese Weise erstellte Literaturliste mit den korrigierten Erstautorennamen ermöglichte die Bestandsaufnahme des physikalischen Literaturarchivs.
Die Bestandsaufnahme wurde mit folgenden Fragestellungen durchgeführt:
1.
Wie viele Artikel, deren Daten in die physikalische Datenbasis aufgenommen
wurden fehlen bzw. wie viele sind vorhanden ?
2.
In welcher Form sollen die fehlenden Artikel beschafft werden (Kopie der
Primärliteratur aus der Bibliothek oder MEDLINE-Abstract) ?
3.
Wie viele Artikel sind falsch abgeheftet worden ?
4.
Wie kommt es zustande, daß Literatur falsch abgeheftet wurde ?
5.
Welche Änderungen müssen vorgenommen werden, um derartige Sortierungsfehler
zukünftig zu vermeiden ?
18
2.2 Beschaffung der Primärliteratur, Auswahl relevanter
pharmakokinetischer Parameter und Transkription
Die Primärliteratur wird zum größten Teil aus anerkannten medizinischen Zeitschriften
bezogen. Die Zeitschriften werden gezielt auf Artikel mit pharmakokinetischen Daten zu
unterschiedlichen Generika durchsucht. Entsprechende Artikel werden vollständig kopiert.
Anschließend erfolgt die Auswahl der für die Dosisanpassung relevanten pharmakokinetischen Daten. Die drei wichtigsten pharmakokinetischen Parameter sind die
Eliminationshalbwertszeit (Tkin1/2), das Verteilungsvolumen (Vd) und die Plasmabindung
(PB%). Sind diese bei normaler Nierenfunktion und terminaler Niereninsuffizienz bekannt,
dann lassen sich mit Hilfe der Pharmakokinetik klare Dosisempfehlungen aussprechen
(Benet LZ 1990).
Für gewöhnlich wird auch auf die Gesamtkörper-Clearance (Cltot) Wert gelegt, um
möglichst viele weitere pharmakokinetischen Parameter für verschiedene Situationen
berechnen zu können. Diese kann jedoch aus Tkin1/2 und Vd berechnet werden.
Im Anschluß an die Auswahl aller brauchbaren pharmakokinetischen Daten aus der Literatur werden diese handschriftlich auf der ersten Seite der Primärliteratur fixiert und
schließlich in die pharmakokinetische Datenbasis eingegeben. Man nennt den Prozeß der
Dateneingabe in eine Datenbasis von einer Vorlage Transkription.
2.3 Pharmakokinetische Datenbasis
2.3.1 Aufbau
Bei der Fehlersuche und Qualitätssicherung gilt es, die Struktur und die Wege der
Datenakquisition und Datensynthese nachzuzeichnen.
Die pharmakokinetische Datenbasis besteht aus dem Eingabemodul, der eigentlichen
Datenbasis und dem Ausgabemodul. Mit Hilfe der Meta-Analyse erfolgt die Verarbeitung
der im Eingabemodul erfaßten Daten aus der Primärliteratur. Die Ergebnisse der MetaAnalyse können im Ausgabemodul abgefragt werden.
Abbildung 1 zeigt sowohl den Aufbau der pharmakokinetischen Datenbasis, als auch den
Weg der Datengewinnung und -verarbeitung.
19
Literaturbeschaffung
• Bibliothek (Kopie)
• MEDLINE (Abstract)
Auswahl der pharmakokinetischen
Daten
• Werte aus der Literatur
• aus Schaubildern und
Diagrammen berechnete Werte
Eingabemodul
(Rohdaten)
Datenbasis
RohdatenAusgabemodul
Rohdaten
synthetisierte Daten
MetaAnalyse
(synthetisierte Daten)
Ausgabemodul
Abb.1 Aufbau der pharmakokinetischen Datenbasis und Weg der Datengewinnung und
-verarbeitung
2.3.1.1 Das Eingabemodul
Alle relevanten pharmakokinetischen Daten und die zugehörigen Angaben zur Quellliteratur werden mittels des Eingabemoduls erfaßt.
Dieser Teil des Systems kann auch als der anfälligste hinsichtlich der Fehlerentstehung
angesehen werden. Daher erschien es notwendig, die Art und den Ablauf der Dateneingabe
in das Eingabemodul zu untersuchen, um Hinweise auf mögliche Fehlerquellen zu
erhalten.
Abbildung 2 zeigt die Oberfläche, die beim Öffnen des Eingabemoduls erscheint.
20
Abb.2 Oberfläche des Eingangs in das Eingabemodul
Da interindividuelle Unterschiede bezüglich der Dateneingabe trotz Strukturierung und
Standardisierung des Eingabemoduls bestehen, ist jeder Daten eingebenden Person seit
1994 eine Leiste zugeordnet. Dabei kann anhand der Artikelnummer der seit 1994
eingegebenen Datensätze, auf die Daten eingebende Person rückgeschlossen werden, da
jeder Person eine bestimmte Anfangszahl zugewiesen ist. So werden z.B. alle Artikel, die
mit der Artikelnummer 8 beginnen und 6-stellig sind von Person A, die mit 9 beginnen und
6-stellig sind, von Person B etc. eingegeben. Dadurch wird es nicht nur möglich,
Schwachstellen in der Dateneingabe zu erkennen, sie können auch einer bestimmten
Person zugeordnet werden. Dies erweist sich als ein großer Vorteil, da so die
Fehlereliminierung vereinfacht wird.
Abbildung 3 zeigt die sich darstellende Oberfläche, wenn man ins Eingabemodul gelangt:
21
Abb.3 Oberfläche des Eingabemoduls
Vorgehen bei der Dateneingabe
Zunächst müssen der Autorname bzw. die Autorennamen, der Titel der Primärliteratur, das
Journal, der Band und die Seitenzahlen eingegeben und die Eingabe bestätigt werden, um
ins Haupteingabemenü zu gelangen. Anschließend erfolgt die Eingabe des GenerikumNamens, des Parameters, des Typs, des pharmakokinetischen Wertes, der Dimension und
eventuell der Applikation, der Begleiterkrankungen, der Komedikation, eines Kommentars
etc. Im Anschluß kann eine neue Eingabe zu dem selben Artikel oder aber die Eingabe
eines neuen Artikels erfolgen.
Es sei darauf hingewiesen, daß bei der Analyse der Rohdaten lediglich sämtliche Angaben
zur Literaturquelle, der Generikum-Name, der Parameter, der Typ, der pharmakokinetische
Wert (mit Abweichung, sofern an- und eingegeben) und die Dimension mit ihrem
Umrechnungsfaktor berücksichtigt werden. Alle anderen Eingaben wie z.B. zur
Applikation, zu Begleiterkrankungen, zur Komedikation, zum Kommentar etc. werden
zwar im Ausdruck der Dateneingabe dokumentiert, in der Meta-Analyse der Daten jedoch
vernachlässigt.
22
Folgende Besonderheiten müssen bei der Dateneingabe beachtet werden: Bei der Eingabe
von Generikum-Namen, Parameter, Typ und Dimension kann zum einen aus einer Liste
ausgewählt werden, zum anderen kann eine manuelle Eingabe erfolgen. Aufgrund der
uneinheitlichen Maßsysteme ist die Eingabe neuer Einheiten oft unumgänglich. Diese
müssen zur Homogenisierung der Daten konvertiert werden. Da derzeit kein derartiges
automatisches Konversionssystem zur Verfügung steht, muß die Umrechnung der neuen
Einheit auf die Haupteinheit eigenständig erfolgen. Dies kann gelegentlich die
Dateneingeber überfordern. Aus Unwissenheit wird dann der Wert "1" als Umrechnungsfaktor eingegeben.
Daneben können eine Vielzahl weiterer Fehler entstehen:
•
Tippfehler bei der Eingabe der Autorennamen
z.B. Eingabe von "Groot De ANJA" statt "De Groot ANJA" oder Eingabe von "Nestor
JL" statt "Lalak NJ" (Verwechslung von Vor- mit Nachnamen).
Wird der Name vor allem des Erstautors falsch eingegeben, so hat dies zur Folge, daß
die zugehörigen pharmakokinetischen Daten nicht mehr mittels des Literaturarchivs
verifiziert werden können, da dann meist gleichzeitig eine falsche Sortierung der
Primärliteratur vorliegt.
•
Tippfehler bei der Eingabe des Generikum-Namens
z.B. Eingabe von "Satolol" statt "Sotalol".
Wird der Generikum-Name falsch eingegeben, so wird er, sofern es sich nicht um
einen neuen, noch nicht in der Datenbasis dokumentierten Wirkstoff handelt, als
solches behandelt und neu in die Datenbasis aufgenommen und mit einer neuen
Generikum-Nummer versehen. Nicht nur daß der neu dokumentierte Datensatz bei der
Meta-Analyse aller zu einem Wirkstoff und Parameter dokumentierten Daten nicht
mitberücksichtigt werden kann, es werden dadurch auch Daten zu einem Wirkstoff
dokumentiert, den es eigentlich gar nicht gibt.
Um eine weitere Standardisierung der pharmakokinetischen Datenbasis zu erzielen und
derartige Rechtschreibfehler zu vermeiden, wird angestrebt den ATC code zu
integrieren.
23
•
Eingabefehler bezüglich des Parameters
Der einzugebende Wert kann statt der Eliminationshalbwertszeit (Tkin1/2) z.B. dem
Verteilungsvolumen (Vd) zugeordnet werden.
•
Eingabefehler bezüglich des Typs
Der einzugebende Wert kann z.B. statt der "normalen" Eliminationshalbwertszeit der
Eliminationshalbwertszeit bei "Anurie" zugeordnet werden.
•
Tippfehler bei der Eingabe des pharmakokinetischen Wertes
Ein falscher Wert kann eingegeben werden; z.B. "1,0" statt "0,1".
•
Eingabefehler bezüglich der Dimension
z.B. Eingabe von "l/min" statt "ml/min".
Zum einen kann einem Wert die falsche Dimension aus der Liste zugewiesen werden,
zum anderen kann wie schon oben beschrieben, bei der Eingabe einer neuen
Dimension eine falsche Berechnung und / oder Eingabe des Umrechnungsfaktors
erfolgen.
Für die Bestätigung, Belegung und Quantifizierung der aus den Überlegungen resultierenden Reihe an Fehlerquellen, wie sie oben dargestellt sind, war die Suche nach
anerkannten Methoden erforderlich.
Hierfür konnten verschiedene adäquate statistische Tests in Betracht gezogen werden: Zum
einen Plausibilitätstests und zum anderen Konsistenztests.
Mittels dieser beiden statistischen Methoden können die in die Datenbasis integrierten
Werte auf ihre Plausibilität und Konsistenz überprüft werden. Durch eine anschließende
Überprüfung aller nicht plausibler und / oder nicht konsistenter Werte kann in den meisten
Fällen gezielt auf die Fehlerquelle zurückgeschlossen werden.
Für die Fehleranalyse, aber auch für die Meta-Analyse von Bedeutung ist die Tatsache, daß
oft kein Wert für die Abweichung, keine Wertart (Median, Mittelwert, Minimum,
Maximum), keine Abweichungsart (Standardabweichung, Variationskoeffizient, etc.) und
auch keine Patientenzahl dokumentiert wird. Dies liegt entweder daran, daß keine Angaben
hierzu in der Literatur zu finden sind, oder aber sie werden nicht in dieser Form in die
Datenbasis übernommen.
24
2.3.1.2 Meta-Analyse
Um eine weitestgehende Homogenität der Daten aus dem Eingabemodul zu erhalten, ist es
notwendig, verschiedene statistische Methoden kombiniert anzuwenden. Die Schätzungen,
die man dabei erhält, sind an die Verteilung jeder Menge angepaßt. Der hierfür verwendete
Algorithmus ist in Abbildung 4 dargestellt.
Abb.4 Algorithmus für die Analyse veröffentlichter pharmakokinetischer Daten aus der
Literatur (Zellner D et al. 1996)
2.3.1.3 Das Ausgabemodul (Extract)
Das Ausgabemodul (Extract) präsentiert das Ergebnis der Meta-Analyse (Abbildung 5).
25
Abb.5 Oberfläche des Ausgabemoduls
Da mittels der Meta-Analyse sowohl eine Homogenität der Daten hergestellt werden soll,
als auch mögliche Fehler eliminiert werden sollen, und ferner keine Änderungen innerhalb
des Ausgabemoduls vorgenommen werden können, ist davon auszugehen, daß das Extract
am wenigsten anfällig hinsichtlich der Fehlerentstehung ist.
Die Verknüpfung mit der zu den Rohdaten gehörenden Quellliteratur ermöglicht bei
Bedarf die Überprüfung der Rohdaten in Form eines Vergleichs mit der Primärliteratur. Es
ist sogar möglich, sowohl eine Liste mit allen notwendigen Informationen zur
Quellliteratur (Abbildung 6), als auch das Ergebnis der Extract-Abfrage (Abbildung 7)
auszudrucken.
26
Abb.6 Ausdruck der Informationen zur Quellliteratur
Abb.7 Ausdruck des Ergebnisses der Extract-Abfrage
27
Es ist möglich, das Extract als Hilfe für die Fehlerquellensuche zu verwenden.
Erfolgt eine Abfrage zu einem Parameter zu einem bestimmten Wirkstoff, so erhält man
pro Typ nur einen Wert, der mittels der Meta-Analyse aus vielen Einzelwerten errechnet
worden ist; die Anzahl der Einzelwerte zu einem bestimmten Parameter sind immer mit
angegeben. Es ist möglich, das Ergebnis der Meta-Analyse auf Konsistenz zu überprüfen.
Eine Tabelle zu allen verfügbaren Daten aus dem Extract mußte hierzu erstellt werden.
Als Überprüfungs-Instrument wurde zuerst eine Tabelle mit folgenden Spalten entworfen:
•
Generikum-Name
•
Medikamenten-Nummer
•
Parameter
•
Typ
•
Wert
•
Dimension
Die Generika-Namen aus dem Extract wurden in die Tabelle kopiert. Anschließend konnte
eine Bestandsaufnahme der errechneten Parameter im Extract erfolgen. Die dabei
erhaltenen Daten wurden in die Tabelle eingetragen.
2.3.2 Methoden zur Fehler- und Fehlerquellensuche
Zur Durchführung der Fehler- und Fehlerquellensuche waren unterschiedliche Methoden
notwendig:
1.
Überprüfung der Umrechnungsfaktoren
2.
Konsistenztests
3.
Plausibilitätstests
4.
Vergleich der Ergebnisse der Konsistenztests mit denen des Plausibilitätstests
28
2.3.3.1 Überprüfung der Umrechnungsfaktoren
Da zur Zeit kein automatisches Konversionssystem für Dimensionen zur Verfügung steht,
muß die Berechnung der Umrechnungsfaktoren eigenständig erfolgen. Für die Berechnung
bzw. Auswertung der Umrechnungsfaktoren war es notwendig, eine Tabelle zu erstellen.
Die Tabelle wies folgende Spalten auf:
•
Parameter-Nummer
•
Parameter
•
Dimension
•
Umrechnungsfaktor (bisher)
•
Umrechnungsfaktor (korrigiert).
2.3.3.1 Konsistenztests
Definition:
Der Begriff "Konsistenz" ist eine Bezeichnung für eine Eigenschaft einer Schätzfunktion.
Diese ist gegeben, wenn ihre Schätzwerte bei wachsender Beobachtungszahl mit gegen
Null strebender Wahrscheinlichkeit vom wahren Wert abweichen (Brockhaus). Ein
Konsistenztest überprüft somit, ob ein Schätzwert vom wahren Wert abweicht.
Mit Hilfe bekannter pharmakokinetischer Formeln können pharmakokinetische Parameter
errechnet werden. Neu ist die Verwendung der bekannten pharmakokinetischen Formeln in
diesem Zusammenhang: Ein Schätzwert (Wert aus dem Extract) wird dann als konsistent
klassifiziert, wenn keine erhebliche Abweichung (CV ≤ 100%) vom errechneten Wert
vorliegt.
Für die Konsistenzprüfung wurden folgende pharmakokinetische Formeln verwendet:
1)
Tkin1 / 2 normal ≈ Tkin1 / 2 HD
2)
Cltot = ln 2 ⋅
Vd
Tkin1 / 2
29
Zur Erleichterung Berechnung von Cltot für folgende Typen:
a)
normal
b)
Anurie
c)
sonstiges
3)
Cltot / F = ln 2 ⋅
4)
Vd / F
Tkin1 / 2
Vd
Cltot / F = ln 2 ⋅ F
Tkin1 / 2
oder
Vd / F
Cltot
= ln 2 ⋅
Tkin1 / 2
F
Vd
F
5)
Vd / F =
6)
Cltot / F =
Cltot
F
und
Vss
F
7)
Vss / F =
8)
Vd
Cltot
=
Vd / F Cltot / F
9)
Clrenal ≈ Cltotnormal − Cltot Anurie
10)
Tkin1 / 2 *
fp Vd *
=
⋅
Tkin1 / 2
fp * Vd
11)
Vd ↓
Tkin1 / 2 Anurie (1 − PB %) normal Vd Anurie
=
⋅
Tkin1 / 2 normal (1 − PB %) Anurie Vd normal
Tkin1 / 2 ↑
ke = Cltot / Vd
30
12)
ke = ln 2 / Tkin1 / 2
13)
MRTkin =
14)
MRTkin ≈
15)
Cltot = Vss / MRTkin
Tkin1 / 2 Vss
⋅
ln 2
Vd
Tkin1 / 2
ln 2
Vss = Cltot ⋅ MRTkin
V max⋅ Vd
Km
16)
Cltot =
17)
Tkin1 / 2 = ln 2 ⋅
18)
Re nFR =
19)
Re nFR = 1 −
20)
Re nFR =
Clrenal Tkin1 / 2
⋅
ln 2
Vd
21)
Re nFR ≈
Cltot normal − Cltot Anurie
Cltot normal
22)
Km + c
V max
Clrenal
Cltot
Tkin1 / 2 normal
Tkin1 / 2 Anurie
Cltot normal
Cltot Anurie
=
(1 − PB %) normal (1 − PB %) Anurie
31
PB% ↓
Cltot ↑
Durchführung der Konsistenztests
Die Durchführung der Konsistenztests basierend auf dem Ausgabemodul (Extract) erwies
sich deshalb als sinnvoller, weil es sich beim Extract zum einen nicht um Einzelwerte wie
z.B. im Eingabemodul und in der Rohdatenbasis, sondern um eine Schätzung aus mehreren
Werten handelt, und zum anderen bedeutend mehr Parameter im Vergleich zum
Eingabemodul dokumentiert sind, da die Werte aus unterschiedlichen Literaturquellen
verarbeitet worden sind. Somit eröffnete sich die Möglichkeit, bedeutend mehr
Konsistenztests durchführen zu können als mit Hilfe der Werte aus dem Eingabemodul.
Zur Durchführung der Konsistenztests mußten alle Generika gesucht werden, für welche
die Parameter der jeweiligen pharmakokinetischen Formel gleichzeitig dokumentiert sind.
Dies erfolgte mit Hilfe der hierfür erstellten, in Kapitel 2.3.1.3 beschriebenen Liste aus
dem Extract.
Für die Durchführung und Auswertung war der Entwurf einer Excel-Tabelle notwendig.
Die Tabelle wies folgende Spalten auf:
•
Generikum
•
Medikamenten-Nummer
•
Parameter
•
Typ
•
Wert im Extract
•
Dimension
•
mit Hilfe der pharmakokinetischen Formeln berechneter Wert
•
relative Abweichung.
Die im Extract dokumentierten Werte wurden in die entworfene Excel-Tabelle übertragen.
Eine maximal tolerable relative Abweichung von 100% wurde festgelegt, die jeweiligen
pharmakokinetischen Werte mit Hilfe der aufgestellten pharmakokinetischen Formeln
berechnet, ebenso die relative Abweichung des errechneten Wertes von dem
dokumentierten Wert. Das Ergebnis wurde in die Excel-Tabelle eingetragen. Von einer
Konsistenz der Daten wurde ausgegangen, wenn der Variationskoeffizient (CV) der
jeweiligen Schätzwerte kleiner / gleich 100% war (CV = SD/Wert). Anschließend wurden
alle Generika markiert, deren Werte eine relative Abweichung größer als 100% aufwiesen.
Zur Auswertung wurden alle Generika ausgezählt, für die die Werte, notwendig für die
32
Durchführung des jeweiligen Konsistenztests, gleichzeitig im Extract dokumentiert waren.
Zusätzlich mußten alle markierten Generika, deren Werte sich in den Konsistenztests als
nicht konsistent erwiesen haben, ausgezählt werden.
2.3.3.2 Plausibilitätstest
Definition:
Plausibilitätstests dienen dazu, Ausreißer in einer Wertereihe zu detektieren. Dabei werden
(im Gegensatz zu Konsistenztests, bei denen Schätzwerte mit wahren Werten verglichen
werden) alle Werte einer Wertereihe miteinander verglichen und eine maximal tolerable
Abweichung festgelegt. Von Plausibilität wird ausgegangen, wenn die Werte untereinander
um nicht mehr als die festgelegte maximale Abweichung voneinander abweichen.
In den Test wurden alle Rohdaten aus dem Eingabemodul einbezogen.
Es wurde zunächst eine Tabelle mit folgenden Spalten entworfen:
•
Medikamenten-Nummer
•
Generikum
•
Parameter-Nummer
•
Parameter
•
Typ-Nummer
•
Typ
•
Dimension
•
Anzahl der untersuchten Datensätze (n)
•
Mittelwert
•
Median
•
Minimum
•
Maximum
•
Standardabweichung
•
Variationskoeffizient.
33
Durchführung des Plausibilitätstests
In der Tabelle wurden alle Generika dokumentiert, deren Datensätze einen Variationskoeffizienten CV ≤ 80% oder eine schiefe Verteilung S größer 3 aufwiesen, und somit
als nicht plausibel anzusehen waren.
Bei der Untersuchung der Datensätze standen folgende Fragestellungen im Vordergrund:
•
Wie viele Datensätze mit "unbekanntem" Autor / Titel / Journal gibt es insgesamt in
der Rohdatenbasis ?
•
Bei wie vielen der untersuchten Datensätze ist der Autor/Titel/Journal "unbekannt" ?
•
Wie verhält es sich mit der Häufigkeitsverteilung der nicht plausiblen Daten bezogen
auf die Parameter ?
•
Welche Fehler haben zu den nicht plausiblen Daten geführt ?
•
Was ergibt die Kombination der Ergebnisse der Konsistenztests mit denen des
Plausibilitätstests ?
2.4
Fehlersuche und Fehlerquellenbestimmung
Nach der Durchführung der verschiedenen statistischen Verfahren zur Fehler- und Fehlerquellensuche, mußten die Fehler und Fehlerquellen näher bestimmt und klassifiziert
werden. Dazu war die Programmierung eines Rohdaten-Ausgabemoduls notwendig.
Mit Hilfe der Angaben aus dem Plausibilitätstest, der Medikamenten-Nummer, der Parameter-Nummer und der Typ-Nummer sollten alle Rohdaten zusammen mit Informationen
sowohl zur jeweiligen Primärliteratur, als auch zur Eingabenummer abrufbar sein.
Also wurde ein spezielles Formular entworfen, in welches die o.g. Angaben eingegeben
werden konnten.
Nach der Eingabe von Medikamenten-Nummer, Parameter-Nummer und Typ-Nummer
sollten folgende Informationen abgerufen werden können:
•
Generikum-Name
•
Parameter
•
Typ
•
Wert
34
•
Dimension
•
Eingabenummer
•
Autor
•
Titel
Die Angaben zur Literaturquelle waren deshalb notwendig, um einen direkten Vergleich
zwischen den Angaben in der Literatur mit denen in der Datenbasis vornehmen zu können.
Die Kenntnis über die Eingabe sollte bei etwaigen Abweichungen der Angaben der
Primärliteratur von denen der Datenbasis schnelle Korrekturen im Eingabemodul ermöglichen.
Abbildung 8 zeigt den Weg der Informationsgewinnung und die Funktion des Rohdatenausgabemoduls.
Eingabe von
• Medikamenten-Nummer
• Parameter-Nummer
• Typ-Nummer
Rohdaten-Ausgabemodul
Informationen über
Literaturquelle
Datensatz
Fehlersuche
EingabeNummer
FehlerKorrektur im
Eingabemodul
Abb.8 Weg der Informationsgewinnung und Funktion des Rohdaten-Ausgabemoduls
Abbildung 9 zeigt eine Darstellung der Oberfläche des Rohdaten-Ausgabemoduls.
35
Abb. 9
Oberfläche des Formulars für die Rohdatenabfrage
Um den Vergleich zwischen Primärliteratur und Datensatz zu erleichtern, ist es möglich,
alle Angaben auszudrucken (Abbildung 10).
Name:
Acebutolol
Parameter:
Tkin1/2
Type:
Normal
Von Krahe T
Pharmakokinetik von Gadolinium-DTPA bei dialysepflichtiger chronischen Niereninsuffizienz
Wert:
3,57
Dim: hours DimNr:
1
UmRchFktr:1
Unbekannt
Unbekannt
Wert:
2,7
Dim: hours DimNr:
1
UmRchFktr:1
Unbekannt
Unbekannt
Wert:
7
Dim: hours DimNr:
1
UmRchFktr:1
Unbekannt
Unbekannt
Wert:
7
Dim: hours DimNr:
1
UmRchFktr:1
Unbekannt
Unbekannt
Wert:
9
Dim: hours DimNr:
1
UmRchFktr:1
Rooney M
Acebutolol overdose treated with hemodialysis and extracorporeal membrane oxygenation
Wert:
3
Dim: hours DimNr:
1
UmRchFktr:1
Rooney M
Acebutolol overdose treated with hemodialysis and extracorporeal membrane oxygenation
Wert:
8
Dim: hours DimNr:
1
UmRchFktr:1
Singh BN
Acebutolol: A review of ist pharmacology, pharmacokinetics, clinical uses, and adverse effects
Wert:
2,7
Dim: hours DimNr:
1
UmRchFktr:1
Abb. 10
Ausdruck des Ergebnisses des Rohdaten-Ausgabemoduls
(Hinweis: Die Datensätze mit „unbekannter“ Literaturquelle sind Datensätze, die vor 1994
in die unstrukturierte Datenbasis eingegeben worden sind.)
36
Durchführung der Fehler- und Fehlerquellenbestimmung
Zunächst mußten alle nicht plausiblen Datensätze aus dem Plausibilitätstest überprüft
werden. Dazu wurden alle notwendigen Angaben in das Rohdatenausgabemodul
eingegeben und alle Ergebnisse ausgedruckt. Anschließend konnte die Fehlersuche und
Fehlerquellenbestimmung durch Vergleich der Datensätze mit den Daten aus der
Primärliteratur im physikalischen Literaturarchiv erfolgen.
Im Vorfeld wurde eine Klassifizierung der Fehler vorgenommen, um die spätere Auswertung der Ergebnisse zu erleichtern:
•
falscher Wert
Stimmt der Wert aus dem untersuchten Datensatz nicht mit dem in der Primärliteratur
überein, so wird dieser Fehler als "falscher Wert" klassifiziert.
•
Wert nicht plausibel
Stimmt der Wert aus dem untersuchten Datensatz zwar mit der Literatur überein, ist er
aber im Vergleich zu den anderen dokumentierten Werten nicht plausibel, so wird
dieser mögliche Fehler als "Wert nicht plausibel" klassifiziert.
•
falsche Dimension
Ist im Datensatz eine andere Dimension dokumentiert als in der Primärliteratur, bei
ansonsten gleichem Wert, so wird der Fehler als "falsche Dimension" klassifiziert.
•
falscher Parameter
Ist ein Wert aus der Literatur einem falschen Parameter in der Datenbasis zugeordnet
worden, so wird dieser Fehler als "falscher Parameter" klassifiziert.
•
falscher Typ
Wurde ein Wert aus der Primärliteratur einem falschen Typ zugeordnet worden, so
wird dieser Fehler als "falscher Typ" klassifiziert.
37
•
nicht aus der Primärliteratur entnehmbar
Ist der in der Datenbasis dokumentierte Wert nicht aus der Primärliteratur entnehmbar,
so wird dies als "nicht aus der Literatur entnehmbar" klassifiziert.
Hierbei sei jedoch angemerkt, daß jene Werte einerseits aus Graphiken bestimmt
worden sind, andererseits nur in der kompletten Literatur dokumentiert sind, nicht aber
im Abstract, welches mit dem Ausdruck des Datensatzes abgeheftet wurde.
•
unterschiedliche Applikation
Alle in der pharmakokinetischen Datenbasis dokumentierten Parameter unterstellen
eine intravenöse Applikation der unterschiedlichen Generika. Wurden die Daten in der
Primärliteratur bei oraler Applikation ermittelt, und diese in die pharmakokinetische
Datenbasis nicht als Vd/F bzw. Cltot/F eingegeben, so wurden diese Werte als nicht
plausibel angesehen und als Fehler aufgrund „unterschiedlicher Applikation“
klassifiziert.
•
unterschiedliche Metabolisierung
Wurde zwar in der Literatur, nicht aber in der pharmakokinetischen Datenbasis
zwischen schnellen und langsamen Metabolisierern unterschieden, so kann dies auch
zu nicht plausiblen Daten geführt haben und wird als Fehler aufgrund „unterschiedlicher Metabolisierung“ klassifiziert.
•
Kombinationstherapie
Wurde übersehen, daß eine Kombinationstherapie in der Studie vorlag, so wurde dies
als Fehler aufgrund "Kombinationstherapie" klassifiziert.
Selbst wenn die meisten Fehler in der pharmakokinetischen Datenbasis korrigiert werden,
besteht weiterhin das Bestreben, die Fehlerquote auch zukünftig so gering wie möglich zu
halten, wenn nicht sogar zu verringern. Dazu muß die Konsistenz der Daten sichergestellt
werden. Dies kann mit Hilfe verschiedener Methoden aus dem Fachgebiet der Informatik
erfolgen, die im folgenden Kapitel vorgestellt werden.
38
2.5
Grundlagen zu Datenbanken
Möglichkeiten zur Qualitätssicherung der Daten in einem Datenbanksystem
Relationale Datenbanksysteme sind kommerziell am weitesten verbreitet und bestechen
durch Einfachheit und Exaktheit. Sie unterstützen ein verhältnismäßig einfaches
Datenstrukturierungsmodell und der Zugang zu ihnen über Datenbanksprachen (SQLNorm) ist weitestgehend standardisiert.
Konzeptionell ist eine relationale Datenbank eine Ansammlung von Tabellen. Hinter den
Tabellen steht meistens die Idee einer Relation, ein grundlegender Begriff, der dem
gesamten Ansatz den Namen gegeben hat.
Eine Relation kann anschaulich als Tabelle verstanden werden: Die Attribute des
Relationenschemas bilden die Spaltenüberschriften der Tabelle, die Tupel sind die
verschiedenen Zeilen, und die Einträge in den verschiedenen Tabellenpositionen gehören
zu den jeweiligen Wertebereichen (Heuer A und Saake G 2000).
Das relationale Datenbanksystem zählt zu den einfachen Datenstrukturierungsmodellen.
Dennoch ist es sinnvoll, bestimmte Konsistenzforderungen an gespeicherte Datenbanken
zu stellen, die vom System gewährleistet werden müssen. Folgende Mechanismen können
hierzu verwendet werden:
1) Bestimmung von Integritätsbedingungen
Einfache Integritätsbedingungen sind im relationalen Datenbankmodell fest integriert,
es können jedoch zusätzliche Integritätsbedingungen bestimmt werden.
Es gibt lokale Integritätsbedingungen, die lokal für eine Tabelle gewährleistet sein
müssen (Schlüsselintegrität), und es gibt globale Integritätsbedingungen, die über den
Bereich einer Tabelle hinausreichen (referentielle Integrität).
• Schlüsselintegrität:
Es können Schlüssel für eine Relation (weitere Einträge in einer Tabelle nach einem in der ersten Zeile
fixierten Schema) angegeben werden, z.B. dürfen
zwei gleiche Werte in einer Spalte nicht auftauchen.
• Referentielle Integrität:
Es können Fremdschlüssel angegeben werden, d.h. ein
Schlüssel taucht in einem anderen Relationsschema
auf.
39
•
Typenintegrität:
Es besteht die Möglichkeit, einen Wertebereich zu
Attributen anzugeben.
2) check-Klauseln
Mit Hilfe der check-Klauseln können lokale Integritätsbedingungen innerhalb der zu
definierenden Wertebereiche, Attribute und Relationenschemata angegeben werden.
Mit check-Klauseln können Prädikate angegeben werden, die sich auf die gültigen
Werte innerhalb eines Wertebereiches beziehen.
3) Bestimmung von Datentypen für Felder
Datentypen für bestimmte Felder stellen sicher, daß z.B. in ein Datumsfeld auch ein
Datum eingetragen wird.
4) not null-Klausel
Mit der not null-Klausel können in bestimmten Spalten Null-Werte als Attributwerte
ausgeschlossen werden. "null" repräsentiert die Bedeutung "Wert unbekannt".
5) Anwendungslogik
Eine in eine Datenbankanwendung zusätzlich integrierte Logik kann die Datenbank in
einem konsistenten Zustand halten. Z.B. können mathematische Formeln integriert
werden.
6) Trigger
Trigger sind Integritätsregeln, die immer eine Integritätsverletzung anzeigen.
(Heuer A und Saake G 2000, Dadam P 1999, Heuer A 1997, Biskup J 1995)
Um diese Fähigkeiten von Datenbanksystemen nutzen zu können, ist in erster Linie ein
guter Datenbankentwurf notwendig. Dieser logische Entwurf entspricht dem DetailEntwurf von Algorithmen im allgemeinen Software-Entwurf. Das Ergebnis des logischen
Datenbank-entwurfes ist das logische Schema, z.B. eine Sammlung von Relationen (Heuer
A und Saake G 2000).
40
Wird die Qualität der Daten nur vom Menschen durch eine Durchsicht sichergestellt, kann
man das System ein Protokoll über die Datenänderung führen lassen, das dann durch eine
Durchsicht kontrolliert wird (Dadam P 1999).
Desweiteren können folgende Methoden angewendet werden:
•
Doppelte Dateneingabe
Die Daten werden bei dieser Methode zweimal eingegeben. Anschließend wird die
erste Eingabe mit der zweiten verglichen. Bestehen Unterschiede, so werden die Daten
sooft eingegeben, bis eine 100%-ige Übereinstimmung besteht oder aber der Wert wird
mit Hilfe der Original-Datenquelle überprüft und korrigiert (Cummings J 1994, Gibson
D et al. 1994, Reynolds-Haertle RA 1992).
•
"Vier-Augen-Prinzip"
Hierzu werden zwei Personen benötigt, wobei die erste Person die Daten eingibt, die
zweite die eingegebenen Daten kontrolliert und bei vollständiger Richtigkeit freigibt
(aus dem Faltblatt des Bundesamtes für Sicherheit in der Informationstechnik, Referat
V1, Bonn).
Es mußte überprüft werden, welche Methoden schon direkt vom Datenbanksystem unterstützt werden und welche noch zusätzlich integriert werden könnten.
41
3.
Ergebnisse
3.1
Bestandsaufnahme der pharmakokinetischen Datenbasis
3.1.1 Rohdaten und Daten des Extracts im Vergleich
Für die Bestandsaufnahme der pharmakokinetischen Datenbasis mußten sowohl die
Rohdaten, als auch die Daten des Extracts betrachtet werden. In Tabelle 1 wird der Datenbestand vergleichend dargestellt. Unterschiede bezüglich der Anzahl der Daten liegen
darin begründet, daß das Extract Schätzungen aus der Vielzahl an Rohdaten liefert. Jedoch
müßten die Zahl der Generika, der Dimensionen, der Parameter und der Typen in der
Rohdatenbank und im Extract gleich sein. Man kann daraus schließen, daß eine
Aktualisierung des Ausgabemoduls erforderlich ist.
Tab.1 Vergleich des Datenbestandes zwischen Rohdatenbank und Extract
(Stand: Januar 1999)
Rohdatenbank
Extract
Data / ExtractData
23169
8994
Generika
2069
1626
Dimensionen
177
172
Parameter
36
34
Typ
30
29
3.1.2 Auswertung der Parameter in der Rohdatenbank und im Extract
Um einen Überblick über die Häufigkeit dokumentierter Parameter in der Rohdatenbank
und im Extract zu erhalten, mußte eine Auswertung beider Module erfolgen. Die
Ergebnisse sind in Tabelle 2, das Ergebnis des Extracts zusätzlich in Form von
Diagrammen in den Abbildungen 11 und 12 dargestellt.
42
Tab.2 Auswertung der Parameter aus der Rohdatenbank und des Extracts
Parameter insgesamt
Tkin1/2
Vd
Vd/F
Cltot
Cltot/F
Clrenal
Aelim
PB%
FRelim
RenFR
F
Cmin
Cmax
Km
Vmax
ka
MRTkin
Css
EC50
H
Dmax
Dmin
ke
Tdyn1/2
Vss
Emax
IC50
Vss/F
Clss
MRTdyn
Tabs1/2
Tdeep1/2
D-EC50
D-IC50
Rohdatenbasis
23169
7601
2741
335
3540
628
529
24
1378
1476
1290
1323
193
454
42
39
40
316
9
261
64
21
18
10
148
541
20
16
43
2
3
14
44
3
3
Extract
8994
2714
1045
165
1148
265
203
16
944
612
588
393
33
142
17
21
13
162
1
123
31
20
18
8
60
203
9
9
21
1
1
4
3
1
0
43
Vmax
ka
MRTkin
Tdeep1/2
D-EC50
D-IC50
Km
Cmax
Cmin
F
RenFR
Frelim
PB%
Aelim
Clrenal
Cltot/F
Cltot
Vd/F
Vd
Tkin1/2
10 00 0
9 00 0
8 00 0
7 00 0
6 00 0
5 00 0
4 00 0
3 00 0
2 00 0
1 00 0
0
Parameter insgesamt
Anzahl der Parameter
Au s w e rtu n g d e r P a ra m e te r a u s d e m Au s g a b e m o d u l (E x tra c t) T e il 1
P ar am ete r
A u s w e r t u n g d e r P a r a m e t e r a u s d e m A u s g a b e m o d u l ( E x t r a c t ) T e il 2
10000
9000
Anzahl der Parameter
8000
7000
6000
5000
4000
3000
2000
1000
Tabs1/2
MRTdyn
Clss
Vss/F
IC50
Emax
Vss
Tdyn1/2
ke
Dmin
Dmax
H
EC50
Css
Parameter insgesamt
0
P a ra m e te r
Abb.11 und 12
Graphische Darstellung der Häufigkeit der unterschiedlichen
pharmakokinetischen Parameter im Ausgabemodul
Man erkennt, besonders in der graphischen Darstellung, daß die drei für die individuelle
Dosisanpassung wichtigsten pharmakokinetischen Parameter, die Eliminationshalbwertszeit, das Verteilungsvolumen und die totale Clearance am häufigsten erfaßt sind.
44
3.2
Bestandsaufnahme des physikalischen Literaturarchivs
Für die Bestandsaufnahme des physikalischen Literaturarchivs war es notwendig, eine
Literaturliste zu erstellen. Bei der Erstellung dieser Literaturliste mit Hilfe der pharmakokinetischen Datenbasis fiel auf, daß einige Autorennamen falsch eingegeben waren.
Besonders die falsche Eingabe des Erstautorennamens hat zur Folge, daß zum einen die
Literatur falsch abgeheftet werden kann und somit das Nachvollziehen des in die
pharmakokinetische Datenbasis integrierten, sich auf die Literatur beziehenden Datensatzes nicht mehr möglich ist.
Beispielsweise war der Name des Erstautors "Le Corre P" als "Corre Le P" eingegeben und
somit auch falsch im physikalischen Literaturarchiv abgeheftet.
Aus diesem Grunde mußten zunächst alle Eingabefehler bezüglich der Autorennamen
berichtigt werden.
Insgesamt handelte es sich um 30 falsch eingegebene Autorennamen, wobei lediglich die
Erstautoren mittels Durchsicht der "Autoren"-Tabelle in der Rohdatenbank auf Orthographie überprüft wurden, da nur jene relevant für die Vollständigkeit und Korrektheit des
physikalischen Literaturarchivs sind. Bei einer Gesamtzahl von 3724 entspricht dies etwa
1%.
Laut der pharmakokinetischen Datenbasis wurden pharmakokinetische Daten aus 3724
Artikeln bezogen. Somit mußte das physikalische Literaturarchiv bei Vollständigkeit und
korrekter Sortierung aus 3724 Artikeln aufgebaut sein.
Die Bestandsaufnahme ergab, daß 834 Artikel nicht bzw. nicht an korrekter Stelle
abgeheftet waren. Davon waren 124 Artikel an falscher Stelle einsortiert worden, die
restlichen 710 Publikationen fehlten. Dies bedeutet, daß umgerechnet rund 3% des
Literaturarchivs fehlerhaft einsortiert war, und daß rund 20% des Literaturarchivs fehlte.
Aus diesem Grunde wird nach der Komplettierung des physikalischen Literaturarchivs
empfohlen, die Literatur im physikalischen Literaturarchiv mit größter Sorgfalt alphabetisch und in sich chronologisch zu sortieren, um bei bestehender Vollständigkeit den
sofortigen Zugriff auf die Primärlitertatur jederzeit ermöglichen zu können.
45
Abbildung 13 zeigt die graphische Darstellung des Ergebnisses der Bestandsaufnahme.
D a r s t e llu n g d e s E r g e b n is s e s d e r
B e s t a n d s a u fn a h m e
4000
A n za h l d e r
A r tike l
3000
2000
1000
0
ko m p le tte s fe h le n d e / fa lsc h
L ite r a tu r a r c h iv e in so r tie r te
L ite r a tu r
Abb.13
Anschließend stellte sich die Frage, in welcher Form die fehlende Literatur zur
Komplettierung des physikalischen Literaturarchivs beschafft werden sollte.
Da es sich bei der fehlende Literatur um eine beträchtliche Anzahl (710 Artikel) handelte,
mußte abgewägt werden, ob es notwendig ist, die komplette Literatur zu besorgen, oder ob
es ausreichend ist, ein MEDLINE-Abstract auszudrucken. Es konnte ein Konsensus
gefunden werden.
Beinhaltete der MEDLINE-Abstract
die
in
die
Datenbasis
aufgenommene Information, so war dieses ausreichend für die Komplettierung des
physikalischen Literaturarchivs. Konnten jene Informationen nicht aus dem Abstract
entnommen werden oder war gar kein MEDLINE-Abstract verfügbar, so war die
Beschaffung der Primärliteratur aus der Bibliothek in Form einer Kopie erforderlich.
Dabei wurden 468 MEDLINE-Abstracts und 242 Kopien der Originalliteratur aus der
Bibliothek besorgt.
Desweiteren stellte sich die Frage, wie die Sortierungsfehler zustande kamen.
Nach näherer Untersuchung konnte eine Einteilung der Sortierungsfehler vorgenommen
werden.
46
Folgende Fehler haben zu einer falschen Einsortierung der Primärliteratur geführt:
•
Falsche Orthographie des Erstautorennamen
Durch die falsche Orthographie des Erstautorennamen wurden die korrespondierenden
Artikel an falscher Stelle abgeheftet. Beispielsweise war der Artikel von Van
Griensven JMT: Effect of changing liver blood flow by exercise and food on kinetics
and dynamics of saruplase. Clin Pharmacol Ther 57: 381-389 (1995) unter dem
Buchstaben G wie "Griensven" statt unter V wie "Van Griensven" abgeheftet oder aber
die Artikel von De Groot ANJA wie z.B. Comparison of the bioavailability and
pharmacokinetic of oral methylergometrine in men and women. Int J Clin Pharm Ther
33: 328-332 (1995) war unter dem Buchstaben G wie "Groot" statt unter D wie "De
Groot" abgeheftet.
Derartige Sortierungsfehler fanden sich bei 66 Artikeln. Dies entspricht ca. 53% aller
falsch einsortierten Artikel bzw. bei ca. 2% aller Artikel.
•
Bündelung mehrerer voneinander unabhängiger Artikel aufgrund der Büroklammer
Da zur gemeinsamen Abheftung des Artikels mit den Datensatzausdrucken eine
Büroklammer verwendet wird, kommt es vor, daß aus Versehen mehrere Artikel
zusammenrutschen und durch die Klammer flexibel gebündelt abgeheftet werden.
Beispielsweise war mit dem Artikel von Colucci R: Effect of felbamate on the
pharmacokinetics of lamotrigine. J Clin Pharmacol 36: 634-638 (1996) zusammen mit
folgenden Artikeln abgeheftet:
Dockens RC: Assessment of pharmacokinetic and pharmacodynamic interaction
between nafazodone and digoxin in healthy male volunteers. J Clin Pharmacol 36: 160167 (1996);
Shah A: Pharmacokinetics of intravenous ciprofloxacin in normal in renally impaired
subjects. J Antimicrob Chemother 38: 103-116 (1996)
16 Artikel wurden auf diese Weise falsch einsortiert. Dies entspricht rund 13% aller
falsch einsortierter Artikel bzw. ca. 0,4% aller Artikel.
•
Falsche Sortierung ohne offensichtlichen Grund
42 Artikel waren ohne offensichtlichen Grund falsch einsortiert. Dies entspricht rund
34% aller falsch einsortierter Artikel bzw. 1% aller Artikel.
47
Abbildung 14 zeigt eine graphische Darstellung der relativen Häufigkeit der beschriebenen
Sortierungsfehler.
Darstellung der relativen Häufigkeit der
unterschiedlichen Sortierungsfehler
Fehler aufgrund falscher Orthographie
(53%)
Fehler aufgrund versehentlicher
Bündelung (13%)
34%
53%
13%
Fehler ohne offensichtliche Ursache
(34%)
Abb.14
3.3
Geringe Standardisierung der Primärliteratur als Fehlerquelle
Es läßt sich sagen, daß die unterschiedlichen Präsentationsformen (Veröffentlichung von
Fallbeschreibungen, von statistischen Kenngrößen, der gesamten Rohdaten), die nicht
miteinander
vergleichbaren
Untersuchungsbedingungen
(Intensivstation,
Dialyse-
Zentrum), die verschiedenen Modelldarstellungen (Kompartimentenmodell, modellfreie
Berechnung), die uneinheitlichen Maßsystemen und die Angabe von Werten mit großen
Spannweiten zum einen hohe Anforderungen an die Struktur der pharmakokinetischen
Datenbasis stellen und zum anderen eine besonders fehleranfällige Konvertierung
notwendig machen, um eine weitestgehende Homogenität der Daten zu erreichen.
Desweiteren erschweren sie die Auswahl der zu dokumentierenden pharmakokinetischen
Parameter und Daten.
Diese Fehlerquelle stellt ein Hauptproblem für die Strukturierung und Dokumentation
pharmakokinetischer Daten dar und läßt sich nur schwer bis gar nicht quantifizieren.
Sie kann erst dann behoben werden, wenn eine Standardisierung bezüglich der Publikation
pharmakokinetischer Daten erfolgt.
48
3.4
Transkription als Fehlerquelle
Unvollständige Dokumentation, unklare Zuordnungen zum jeweiligen Arzneimittel und
eine schwer leserliche Schrift können als Faktoren für eine fehlerhafte Dateneingabe
angesehen werden. Stichproben bei nicht plausiblen Werten zeigten, daß beispielsweise
keine Dimension zu den aus der Primärliteratur ausgewählten und handschriftlich fixierten
Werten dokumentiert waren oder aber Werte kaum oder nur schwer entziffert werden
konnten. Gelegentlich war es schwer, die dokumentierten Werte dem richtigen Generikum
zuzuordnen.
Die Anzahl der hierdurch entstandenen Fehler läßt sich nicht quantifizieren, ist aber als
beträchtlich anzusehen, da es bei der handschriftlichen Fixierung von Daten leicht zu
Mißverständnissen kommen kann, die oft nicht geklärt werden.
Aus diesem Grunde wird der Entwurf eines speziellen Formulars für die handschriftliche
Dokumentation der pharmakokinetischen Daten empfohlen, um Vollständigkeit der
Dokumentation zu garantieren. Wie dieses Formular aussehen könnte ist in Abbildung 15
dargestellt.
Generikum:
Parameter
Typ
Wert
Dimension
Sonstiges
Abb.15 Mögliches Layout des Formulars zur handschriftlichen Fixierung ausgewählter
pharmakokinetischer Daten
Desweiteren sollen schwer leserliche Begriffe markiert und ihre Bedeutung im Anschluß
geklärt werden, bevor eine Eingabe in die pharmakokinetische Datenbasis erfolgt.
49
3.5
Interindividuelle Unterschiede bei der Dateneingabe
Da seit 1994 die Möglichkeit besteht, aufgrund der einem Datensatz zugeordneten
Artikelnummer auf die Person rückzuschließen, die diesen Datensatz eingegeben hat, war
es möglich einige Schwachstellen aufzuspüren und zuzuordnen. Aufgrund der Tatsache,
daß dies erst seit 1994 möglich ist und die Daten schon seit den 70-er Jahren eingegeben
werden, war dies nur in begrenztem Umfang möglich.
Dabei wurden jeweils 100 Datensätze mit einer 6-stelligen Eingabenummer untersucht, die
mit 8 bzw. mit 9 beginnen. Dabei zeigte sich, daß Person A , deren Eingaben mit der
Anfangsziffer 8 beginnen, einmal einen falschen Wert - dies entspricht 1 % - und zwei
Mal einen falschen Parameter - dies entspricht 2% - eingegeben hat. Bei Person B, deren
Eingaben mit der Anfangsziffer 9 beginnen, zeigte sich, daß 13 Mal eine falsche
Dimension - dies entspricht 13% - eingegeben wurde; bevorzugt wurde dabei die Dimension % mit F < 1 und umgekehrt verwechselt.
3.6
Auswertung der Fehler- und Fehlerquellensuche
3.6.1 Berechnung der Umrechnungsfaktoren
Für die Berechnung bzw. Auswertung der Umrechnungsfaktoren, war es notwendig eine
Tabelle zu erstellen. Die Tabelle wies folgende Spalten auf: Parameter-Nummer,
Parameter, Einheit, Umrechnungsfaktor (bisher) und Umrechnungsfaktor (korrigiert). Die
Umrechnungsfaktoren von insgesamt 175 Einheiten bezogen auf 34 Parameter wurden neu
berechnet und mit der alten Berechnung verglichen. Die Neuberechnung wurde von zwei
unabhängigen Personen durchgeführt, die zu folgendem Ergebnis kamen:
Ursprünglich existierten 175 Einheiten in der pharmakokinetischen Datenbasis.
•
15 Umrechnungsfaktoren waren falsch berechnet.
•
164 Einheiten mit ihren Umrechnungsfaktoren wurden zugefügt.
•
4 Einheiten mit ihren Umrechnungsfaktoren mußten gelöscht werden, da 2 Einheiten
doppelt vorhanden waren (Stunde und Prozent) und 2 Einheiten gar nicht existierten
(mlU/ml und umol).
50
•
Bei 19 Parametern mußte eine Rechtschreibkorrektur vorgenommen werden:
Beispielsweise wurde VD in Vd, CLrenal in Clrenal und FR_ELIM in FRelim
umgewandelt. Bei einer Gesamtheit von 37 Parametern entspricht dies 51%.
Die Ergebnisse sind in Tabelle 3 dargestellt.
Tab.3 Ergebnisse der Neuberechnung der Umrechnungsfaktoren
absolute Häufigkeit
relative Häufigkeit
Umrechnungsfaktor falsch
15
9%
Umrechnungsfaktor gelöscht
4
2%
164
94%
neu zugefügte Einheiten
Insgesamt besteht die pharmakokinetische Datenbasis neuerdings aus 339 Einheiten.
Änderungen an der pharmakokinetischen Datenbasis
Alle falsch berechneten Umrechnungsfaktoren wurden in der Rohdatenbasis und im
Ausgabemodul korrigiert, weitere fehlende Dimensionen mitsamt Umrechnungsfaktoren
zugefügt, doppelt vorhandene Dimensionen wurden gelöscht. Ferner wurden Rechtschreibkorrekturen bei den Parametern vorgenommen. Bei der Tabelle "Dimensionen" wurde eine
Spalte "korrigiert" zugefügt, um zusätzliche Berechnungen der bereits kontrollierten
Umrechnungsfaktoren zukünftig zu vermeiden. So ist bei allen kontrollierten Einheiten die
Spalte "kontrolliert" mit einem "ja" versehen. Bei allen neu eingegebenen Dimensionen
erscheint in der Spalte "kontrolliert" automatisch ein "nein". Diese mit "nein" gekennzeichneten Dimensionen können nun in regelmäßigen Zeitabschnitten nachgeprüft werden.
3.6.2 Auswertung der Konsistenztests
Nach der Durchführung der einzelnen Konsistenztests wurde zunächst jeder Test einzeln ,
später alle zusammen ausgewertet und das Ergebnis tabellarisch dargestellt (Tabelle 4).
51
Tab.4 Gemeinsame Darstellung der Ergebnisse der Konsistenztests
Konsistenztest
1
2a
2b
2c
3
4
5
6/7
8
9
10
11/12
13
14
15
16
17
18
19
20
21
22
insgesamt bzw.
durchschnittlich
Anzahl der untersuchten
Generika
203
373
139
88
74
42
47
77
43
63
73
8
38
113
89
4
5
100
276
91
159
62
2167
Anzahl der inkonsistenten Werte relative Häufigkeit
98
94
31
23
9
17
14
33
13
24
29
6
8
21
27
3
4
29
83
39
54
41
700
48%
25%
22%
26%
12%
41%
30%
43%
30%
38%
40%
75%
21%
19%
30%
75%
80%
29%
30%
43%
34%
66%
32%
Es wurden insgesamt 2167 Konsistenztests mit 22 unterschiedlichen pharmakokinetischen
Formeln zu 331 unterschiedlichen Generika durchgeführt. Dabei erwiesen sich 700 Daten
aus dem Ausgabemodul (Extract) als nicht konsistent. Insgesamt entspricht dies etwa 32%.
Man kann aus den Ergebnissen der Konsistenztests schließen, daß fehlerhafte Werte in den
untersuchten Datensätzen vorliegen müssen. Da die maximal tolerable relative
Abweichung von 100% hoch gewählt ist, kann es sein, daß die in diesem Test als
konsistent erscheinenden Werte nicht obligat richtig sind. Die relativ hohe Anzahl an
inkonsistenten Daten rührt daher, daß das Ausgabemodul (Extract) nur Schätzungen aus
vielen einzelnen Rohdaten liefert. Liegen vereinzelt falsche Rohdaten vor, so kommt es
zwangsläufig zu inkonsistenten Werten im Ausgabemodul.
Die Fehler, die mittels der Konsistenztests aufgedeckt werden sollten, sind nicht zu einem
bestimmten Parameter zuzuordnen. Zur näheren Bestimmung müßte man die Ergebnisse
der Konsistenztests mit denen der Plausibilitätstests vergleichen und zusätzlich die
Rohdaten zu dem inkonsistenten pharmakokinetischen Parameter zur Hilfe nehmen.
52
3.6.3 Auswertung des Plausibilitätstests
Plausibilitätstest von Januar 1999
Im Januar 1999 bestand die Rohdatenbasis aus 22.550 Datensätze. Diese 22.550 Rohdaten
wurden einem Plausibilitätstest unter den oben genannten Bedingungen unterzogen. Dabei
viel auf, daß zu 618 Generika nicht plausible Datensätze vorlagen. Dies hatte zur Folge,
daß insgesamt 2684 Datensätze näher, mit Hilfe des neu entworfenen Ausgabemoduls für
Rohdaten und des physikalischen Literaturarchivs untersucht werden mußten. Dies
entspricht rund 12 % aller Datensätze in der Rohdatenbasis.
In der Rohdatenbasis existiert ein Pool mit nicht klar identifizierbarer Literaturquelle (in
der pharmakokinetischen Datenbasis als „Literaturquelle unbekannt“ zitiert), der 4.273
Datensätze umfaßt. Dies entspricht etwa 19%. Diese Datensätze stammen aus den 70-er
Jahren, als die pharmakokinetischen Daten aus der Literatur noch in unstrukturierter Form
in ein Textverarbeitungsprogramm eingegeben wurden. Diese wurden in die aktuelle
Datenbasis übernommen.
Unter den untersuchten 2684 Datensätzen fanden sich 559 Datensätze ohne Angabe zu
Autor/Titel/Journal. Bezogen auf die untersuchten Datensätze entspricht dies 20,8%,
bezogen auf die gesamte Datenbasis entspricht dies etwa 2%.
Die Problematik besteht darin, daß bei diesen Datensätzen auffällige Werte nicht mit Hilfe
der Primärliteratur zurückverfolgt werden können, da keine Angaben hierzu vorliegen.
Um eine Häufigkeitsverteilung der nicht plausiblen Daten des Plausibilitätstests vom
Januar 1999 bezogen auf die Parameter zu erhalten, mußte eine Auswertung der
Plausibilitätstests unter diesem Gesichtspunkt erfolgen. Die Ergebnisse dieser Auswertung
sind in der Tabelle 5 ersichtlich.
53
Tab.5 Häufigkeitsverteilung der nicht plausiblen Daten bezogen auf die Parameter
Parameter
Anzahl der zu untersuchenden Datensätze
Anzahl der Datensätze in der
Rohdatenbasis
relative Häufigkeit
Gesamtheit
618
22550
3%
Tkin1/2
Vd
Vd/F
Cltot
Cltot/F
Tkin1/2ss
Clrenal
Aelim
PB%
FRelim
RenFR
F
Cmin
Cmax
MGW
Km
Vmax
ka
MRTkin
Css
EC50
Hill-coefficient
Dmax
Dmin
ke
Tdyn1/2
Vss
Emax
IC50
Vss/F
Clss
MRTdyn
Tabs1/2
Tdeep1/2
D-EC50
D-IC50
189
68
4
115
17
0
19
2
22
61
39
24
3
8
1
1
1
1
4
1
17
1
0
0
0
8
9
1
1
1
0
0
0
0
0
0
8018
2402
303
3191
577
0
506
24
1998
1132
1287
1135
49
334
86
41
39
29
305
7
246
62
21
18
10
129
495
20
9
37
2
3
14
20
1
0
2%
3%
1%
4%
3%
0%
4%
8%
1%
5%
3%
2%
6%
2%
1%
2%
3%
3%
1%
14%
7%
2%
0%
0%
0%
6%
2%
5%
11%
3%
0%
0%
0%
0%
0%
0%
Bei näherer Betrachtung kann man sehen, daß Werte zu selten dokumentierten Parametern,
wie z.B. Css, IC50 und Aelim häufiger inplausibel sind als solche zu in größerer Zahl
dokumentierten Parametern, wie z.B. Tkin1/2, Vd, Cltot und PB%. Dies kommt dadurch
zustande, daß es zu häufig verwendeten Parametern, wie sie eben genannt worden sind,
mehrere Rohdaten gibt, die miteinander verrechnet werden können. Je größer die Anzahl
der Rohdaten, desto genauer wird die Schätzung. Ausreißer können dabei schneller
detektiert werden.
54
3.6.4 Vergleich der Ergebnisse des Plausibilitätstests mit
denen der Konsistenztests
Untersucht wurden 2167 pharmakokinetische Parameter.
Durch Vergleich der Ergebnisse der Konsistenztests mit denen des Plausibilitätstests war
es möglich, den für die Inkonsistenz des betreffenden Wertes im Extract verantwortlichen
Parameter näher zu bestimmen. Dies erfolgte unter Zuhilfenahme der pharmakokinetischen
Formeln.
Das Vorgehen soll anhand eines Beispiels näher erläutert werden:
Generikum:
5-Fluorouracil
Medikamenten-Nummer:
657
Parameter aus dem Extract: Tkin1/2normal
0,3
h
Tkin1/2Anurie
0,3
h
Vdnormal
18,75 l
Cltotnormal
4282 ml/min
FRelimHD
0,37
F<1
FRelimHP
0,06
F<1
Vd normal
Tkin1 / 2 normal
Durchführung des Konsistenztests 2a:
Cltot normal = ln 2 ⋅
Ergebnis des Konsistenztests 2a:
Cltotnormal(berechnet) =
722 ml/min
Im Extract dokumentiert:
Cltotnormal
=
4282 ml/min
Abweichung:
493%
Fragestellung:
Auf welchen fehlerhaften Parameter könnte die Inkonsistenz des
Wertes zu Cltotnormal zurückzuführen sein ?
Ergebnis des Plausibilitätstests:
Nicht plausible Werte lagen vor für
Tkin1/2normal und für Cltotnormal.
Vergleich der nicht plausiblen Parameter mit denen, die in der Formel für den
Konsistenztest verwendet wurden.
55
Schlußfolgerung:
Mit größter Wahrscheinlichkeit kommt die Inkonsistenz des Wertes
zu Cltotnormal dadurch zustande, daß entweder falsche Werte zu
Tkin1/2normal, zu Cltotnormal oder aber zu beiden Parametern
vorliegen. Die Wahrscheinlichkeit dafür, daß die Inkonsistenz des
Wertes
zu
hervorgerufen
Cltotnormal durch fehlerhafte Werte zu
wurde
ist
relativ
gering,
da
Vdnormal
Vdnormal
im
Plausibilitätstest keine inplausiblen Werte aufwies.
Somit muß primär gezielt nach fehlerhaften Werten zu den beiden
Parametern Tkin1/2normal und Cltotnormal gesucht werden.
Bei dem Vergleich der Ergebnisse beider Tests kam folgendes Ergebnis zustande:
Es existieren inkonsistente Werte zu Parametern von 331 unterschiedlichen Generika,
sowie nicht plausible Werte zu Parametern bei 277 Generika. Sowohl inkonsistente als
auch nicht plausible Werte zu Parametern fanden sich bei 188 verschiedenen Generika.
In 228 Fällen konnte mit Hilfe des Vergleiches beider Tests miteinander auf einen bzw.
mehrere Parameter mit fehlerhaften Werten geschlossen werden.
Tabelle 6 zeigt die absolute Häufigkeit der Parameter für die fehlerhafte Werte vorliegen
müssen.
Tab. 6 Darstellung der absoluten Häufigkeit der möglichen Fehlerquellen
mögliche Fehlerquelle
Tkin1/2normal
Tkin1/2Anurie
Tkin1/2HD
Vdnormal
VdAnurie
VdHD
Vdneonatal
Vd/Fnormal
Cltotnormal
CltotAnurie
CltotHD
Cltotneonatal
Cltot/Fnormal
Clrenalnormal
RenFRnormal
PB%normal
PB%Anurie
Fnormal
MRTkinnormal
MRTkinHD
Vssnormal
absolute Häufigkeit
85
5
14
39
3
1
1
3
52
13
3
1
7
16
13
1
3
5
4
1
3
56
3.7
Klassifizierung der Fehler in der pharmakokinetischen Datenbasis
Die Fehler in der pharmakokinetischen Datenbasis konnten mit Hilfe des Plausibilitätstests, des Ausgabemoduls für Rohdaten und des physikalischen Literaturarchivs klassifiziert werden. Der Plausibilitätstest untersuchte 22.500 Rohdaten auf Plausibilität. Dabei
erwiesen sich 2.684 Datensätze als nicht plausibel. Mit Hilfe des Ausgabemoduls für
Rohdaten konnte anschließend ein Vergleich der nicht plausiblen Datensätze mit den
Daten in der Originalliteratur erfolgen. Der Vergleich zeigte, daß insgesamt 465
Datensätze fehlerhaft waren. Dies entspricht 2%.
Die Ergebnisse des Vergleichs sind im Einzelnen in Tabelle 7 aufgelistet.
Tab.7 Ergebnisse des Vergleichs der im Plausibilitätstest auffälligen Datensätze mit den
Daten in der zugehörigen Originalliteratur
Klassifikation des Fehlers
falscher Typ
Wert falsch
unterschiedliche Applikation
falscher Parameter
nicht aus Primärliteratur
entnehmbar
falsche Dimension
unterschiedliche Metabolisierung
Wert nicht plausibel
falscher Wert und falsche
Dimension
Kombinationstherapie
Generika-Name falsch
absolute Anzahl
relative Anzahl
(bezogen auf die untersuchten
Datensätze: 2684)
116
76
69
59
58
4%
3%
3%
2%
2%
55
55
33
18
2%
2%
1%
1%
9
8
0%
0%
Man sieht anhand dieser tabellarischen Zusammenfassung des Ergebnisses, daß die
meisten Fehler in erster Linie bei der Eingabe des Typs zustande gekommen ist. In zweiter
Linie entstanden die Fehler durch Eingabe eines falschen Wertes oder aber durch die
Nichtberücksichtigung der Applikationsart. Drittrangig müssen die Fehler angesehen
werden, die durch die Eingabe des falschen Parameters, der falschen Dimension und durch
die Nichtberücksichtigung der unterschiedlichen Metabolisierung zustande gekommen
sind.
57
Die Nichtberücksichtigung der Applikationsart führt dazu, daß die eingegebenen Werte
nicht miteinander verglichen werden können. Die Datenbasis geht davon aus, daß alle
pharmakokinetischen Werte bei i.v.-Applikation bestimmt wurden. Werte, die nicht bei
i.v.-Applikation ermittelt wurden und zudem nicht als Vd/F bzw. Cltot/F eingegeben
wurden, werden als nicht plausibel angesehen. Momentan sieht das Programm nicht vor,
die Applikationsart zu berücksichtigen. Es ist jedoch möglich derartige Fehler zu
vermeiden, ohne eine Änderung im Datenbasissystem vorzunehmen, indem nur Daten
eingegeben werden, die tatsächlich bei i.v.-Applikation ermittelt wurden oder aber darauf
geachtet wird, daß zu nicht i.v.-applizierten Generika immer der Parameter F, Vd/F bzw.
Cltot/F miteingegeben wird .
Die Tatsache, daß das Vernachlässigen der Art der Metabolisierung (schnelle/langsame
Acetylierer) zu Abweichungen der eingegebenen Werte voneinander geführt haben, macht
es notwendig, die Metabolisierung im Eingabemodul, als auch im Ausgabemodul
zukünftig zu berücksichtigen. Die Metabolisierung kann als Subtyp in das Formular des
Eingabemoduls hinzugefügt werden.
Werte, die nicht aus der Literatur entnehmbar waren, stammen mit größter
Wahrscheinlichkeit aus Abstracts, die nur einen Ausschnitt der Literatur, nicht aber eine
komplette Werteliste präsentieren. Aus diesem Grunde wird empfohlen, so oft wie möglich
die komplette Literatur statt der Abstracts zur Datengewinnung heranzuziehen, um
einerseits Vollständigkeit der Quellliteratur und andererseits größtmögliche Datenqualität
garantieren zu können. Desweiteren können Fehler entweder durch fehlerhafte Graphiken
oder aber durch falsche Ableitung entstehen. Werden Werte aus Graphiken abgeleitet, so
ist dies stets in der Quellliteratur eingezeichnet, und somit nachvollziehbar.
Es wird deutlich, daß mit einer relativen Häufigkeit von 2% (465 fehlerhafte Eingaben
von insgesamt 22.500 Eingaben) die Fehlerquote in der pharmakokinetischen Datenbasis
gering ist.
Um die Fehlerquelle besonders bei den Dimensionen, Parametern und den Typen näher
bestimmen zu können, erschien es sinnvoll, Auswertungen bezüglich der Häufigkeit der
Fehler bei diesen Eingaben zu machen. Diese sind nach absteigender absoluter Häufigkeit
in den Tabellen 8 bis 10 dargestellt.
58
Tab.8 Darstellung der absoluten Häufigkeit der fehlerhaften Eingabe von Dimensionen
Eingabe einer falschen Dimension
falsche Eingabe
%
l
ml/min
l/min
l/min/kg
h
l/h/kg
days
µg/day
l/h/m2
l/kg
ml/h/kg
l/min/m2
ml/h/day
insgesamt
korrigierte Eingabe
F<1
l/kg
l/h
ml/min
ml/min/kg
min
ml/min
h
µg
l/h/1,73m2
ml/kg
ml/min/kg
l/min/kg
ml/kg/day
absolute Häufigkeit
19
7
5
5
4
3
2
2
2
2
1
1
1
1
55
Man sieht, daß vor allem die Verwechslung der Dimension % mit F < 1 und die Verwechslung der Dimension l mit l/kg zu Fehlern beigetragen haben.
Tab.9 Darstellung der absoluten Häufigkeit der fehlerhaften Eingabe von Parametern
Eingabe eines falschen Parameters
fehlerhafte Eingabe
Vd
Tkin1/2
Tkin1/2
Clrenal
EC50
Cltot/F
Vd
F
Cmax
insgesamt
korrigierte Eingabe
Vss
Tdeep1/2
Tdistrib1/2
Cltot
IC50
Cltot
Vd/F
PB%
Cmin
absolute Häufigkeit
22
19
6
4
3
2
1
1
1
59
Man sieht, daß vor allem die Verwechslung der Parameter Vss mit Vd und die
Nichtbeachtung von Tdistrib1/2 (initiale Eliminationshalbwertszeit) und Tdeep1/2 (terminale Eliminationshalbwertszeit) zu nicht plausiblen Daten geführt hat.
59
Tab.10 Darstellung der absoluten Häufigkeit der fehlerhaften Eingabe von Typen
Eingabe eines falschen Typs
fehlerhafte Eingabe
HD
HD
normal
normal
normal
normal
normal
Anurie
normal
HF
HD
CAPD
Anurie
HD
HD
HF
HF
Anurie
insgesamt
korrigierte Eingabe
IPD
CAPD
Aged
Neonat.
Leberinsuff.
Frühgeb.
Anurie
CAPD
CAPD
CVHF
Anurie
CAVH
HF
CAVH
cvvHD
CAPD
normal
HD
absolute Häufigkeit
31
25
7
7
7
6
6
6
5
3
3
2
2
1
1
1
1
1
118
Man erkennt, daß zum einen die falsche Verwendung von HD statt IPD und die Verwechslung des Parameters CAPD mit HD zu nicht plausiblen Daten geführt hat.
Änderungen an der pharmakokinetischen Datenbasis
Alle falschen Werte, falsche Dimensionen, falsche Parameter und falsche Typen wurden
im Eingabemodul korrigiert. Zusätzlich wurden der Parameter Tdistrib1/2 (initiale Eliminationshalbwertszeit) und der Typ IPD (intermittierende Peritonealdialyse) in die Tabellen
der pharmakokinetischen Datenbasis integriert. Um die unterschiedliche Metabolisierung
(schnelle / langsame Metabolisierer) in Zukunft berücksichtigen zu können, wurde eine
Liste mit der Bezeichnung "Subtyp" in das Eingabeformular eingefügt. Dort kann man
zwischen "schneller Metabolisierung" und "langsamer Metabolisierung" auswählen. Die
Auswahl ist nicht obligat.
60
3.8
Methoden zur Sicherstellung der Datenkonsistenz
Aus der Vielzahl der Methoden, die zur Sicherstellung der Datenkonsistenz angewendet
werden können, mußten jene ausgewählt werden, die sich auf unsere pharmakokinetische
Datenbasis anwenden lassen. Anschließend mußte überprüft werden, welche Methoden
bereits direkt von NEPHARM unterstützt werden, und welche integriert werden könnten.
3.8.1
Doppelte Dateneingabe
Die doppelte Dateneingabe erweist sich nicht nur als zeitaufwendiger, sie ist auch
kostspieliger und ist daher als zweitrangige Methode für die Qualitätssicherung der Daten
in unserer pharmakokinetischen Datenbasis anzusehen.
3.8.2
"Vier-Augen-Prinzip"
Das "Vier-Augen-Prinzip" eignet sich gut zur Überprüfung von Tippfehlern. Die Eingabe
eines falschen Wertes, einer falschen Dimension oder aber die fehlerhafte Zuordnung zu
einem Parameter bzw. Typ kann hierdurch zum größten Teil vermieden werden.
3.8.3
Bestimmung von Integritätsbedingungen
Die Bestimmung von lokalen Integritätsbedingungen ist eine Methode, die die pharmakokinetische Datenbasis bereits teilweise direkt unterstützt.
•
Schlüsselintegrität
Jedem neuen Generic, Parameter oder Typ wird automatisch eine neue Nummer
zugeordnet, d.h. die Attribute Generikum-Nummer, Parameter-Nummer und TypNummer sind eindeutig und können kein zweites Mal vergeben werden.
Eine Ausnahme stellt die Generikum-Nummer da. Diese kann mehrfach vergeben
werden, jedoch nur, wenn es sich bei dem Generic um ein Synonym handelt.
Dies ist ein Mechanismus, der bereits direkt von der pharmakokinetischen Datenbasis
unterstützt wird.
61
•
Referentielle Integrität
Diese Funktion wird durch Microsoft ACCESS zur Verfügung gestellt und kann per
Hand aktiviert werden. Diese Funktion stellt sicher, daß Beziehungen gültig sind, und
Verknüpfungen nicht gelöscht werden können, sofern die Löschweitergabe nicht
aktiviert
ist.
Diese
Funktion
der
Datenbasis
ist
soweit
möglich
in
der
pharmakokinetischen Datenbasis NEPHARM bereits aktiviert.
•
Typenintegrität
Es besteht die Möglichkeit, einen Wertebereich zu bestimmten Attributen anzugeben.
Diese Methode eignet sich besonders gut für das Attribut "Wert". Neu eingegebene
Werte zu einem bestimmten Generic, Parameter und Typ werden dann mit den bereits
dokumentierten Werten verglichen. Die bereits dokumentierten Werte legen dabei den
Wertebereich fest. Zusätzlich kann man eine mögliche Abweichung des neu eingegebenen Wertes von den bereits dokumentierten festlegen.
3.8.4
check-Klauseln
Mit Hilfe von check-Klauseln kann für einzelne Datenfelder ein Wertebereich angegeben
werden; beispielsweise muß für den Parameter F der eingegebene Wert stets kleiner als
eins sein (F < 1). Dieser Mechanismus entspricht weitestgehend der Bestimmung der
Typenintegrität und läßt sich auch in der oben beschriebenen Weise realisieren.
3.8.5
Bestimmung von Datentypen für Felder
Dieser Mechanismus stellt sicher, daß in das Werte-Feld auch ein Wert und kein Text
eingegeben wird. Dieser Mechanismus wird bereits direkt von der pharmakokinetischen
Datenbasis unterstützt.
62
3.8.6
not null-Klausel
Wird "Null" in ein Feld eingegeben, so bedeutet dies "Wert ist nicht vorhanden". Im
Gegensatz dazu ist die Zahl Null als unterer Grenzwert zu sehen.
Die not null-Klausel erzwingt die Eingabe in ein Feld, eventuell auch der Zahl Null.
3.8.7
Anwendungslogik
Zusätzlich zu den bereits integrierten und den zu integrierenden Mechanismen kann eine
Anwendungslogik genutzt werden. Pharmakokinetische Formeln, wie sie zur Überprüfung
der Konsistenz der Daten verwendet wurden, können dazu dienen, die Datenbasis in einem
konsistenten Zustand zu halten, indem neu eingegebene Werte unter Zuhilfenahme bereits
in der Datenbasis erfaßter Werte überprüft werden. Die neu eingegebenen Werte können
dann mit den berechneten Werten verglichen werden. Auch hier kann wie beim
Wertebereich eine Abweichung festgelegt werden.
3.8.8
Trigger
Trigger sind Integritätsregeln, die immer Integritätsverletzungen anzeigen. Dieser kann
anzeigen, wenn z.B. ein neuer Wert eingegeben wird, der nicht im zugehörigen Wertebereich liegt oder aber eine starke Abweichung von dem mittels pharmakokinetischer
Formeln berechneten Wert aufweist. Es kann dann noch vor Abschluß der Eingabe
überprüft werden, wo die Fehlerquelle zu suchen ist (fehlende Plausibilität, Tippfehler
bezüglich des Wertes bzw. der Dimension oder aber Eingabefehler bezüglich des Generics,
des Parameters oder Typs etc.).
2.5.9
Protokoll über die Datenänderung
Diese Methode ist eine der einfachsten, die zudem Zeit spart. Es wird die Möglichkeit
geboten, nur jene Datensätze zu überprüfen, die entweder neu hinzukommen oder aber die
63
korrigiert wurden. Somit wird verhindert, daß stets alle Datensätze auf Konsistenz und
Plausibilität überprüft werden müssen.
Als äußerst sinnvoll für die Erhaltung der Konsistenz der Daten in der pharmakokinetischen Datenbasis erweisen sich vor allem die Integration von check-Klauseln in
Form von Wertebereichen sowie die Integration einer Anwendungslogik in Form von
pharmakokinetischen Formeln. Neu einzugebende Werte werden hierbei zum einen mit
bereits dokumentierten, alten Werten, welche als Wertebereich fungieren, verglichen, zum
anderen werden neu einzugebende Werte mit Werten verglichen, die mit Hilfe der
pharmakokinetischen Formeln berechnet wurden. Eine maximale Abweichung wird
sowohl für den Wertebereich, als auch für die berechneten Werte festgelegt. Ist die
Abweichung des neu einzugebenden Wertes größer als die festgelegte maximale
Abweichung, so kann dies mit Hilfe des neu integrierten Triggers angezeigt werden.
Zusätzlich kann das "Vier-Augen-Prinzip" dazu beitragen, die Qualität der Daten in der
Datenbasis sicherzustellen. Desweiteren könnte die Qualitätskontrolle erleichtert werden,
indem alle Veränderungen an der Datenbasis protokolliert würden. Somit müßten nur die
Veränderungen überprüft werden.
Die Eingabe eines falschen Typs, eines falschen Wertes, eines falschen Parameters oder
aber einer falschen Dimension kann auf diese Weise in einem hohen Maß eingeschränkt
werden.
Technisch gesehen handelt es sich hier um ein anspruchsvolles Problem, da das
Datenbanksystem Access die Dokumentation von Änderungen nicht unterstützt und somit
entsprechende Mechanismen von Hand programmiert werden müssen.
Diese aufgeführten Methoden sind Vorschläge zur Sicherung der Datenqualität in der
pharmakokinetischen Datenbasis. Die Integration einiger dieser Methoden stellt die
Voraussetzung dar, ein bestimmtes Qualitätsniveau zu halten, wenn nicht sogar zu
verbessern.
64
4.
Diskussion
Ziel der vorliegenden Arbeit war, die Qualität der pharmakokinetischen Datenbank zu
verbessern. Dazu wurde die Fehlerquote mit Hilfe statistischer Methoden bestimmt. Neu in
diesem Zusammenhang war die Verwendung pharmakokinetischer Formeln in Form von
Konsistenztests. Die Quantifizierung der Fehler in einer Datenbank trägt dazu bei, schnell
und effektiv zu reagieren, wenn die Qualität des Systems abnimmt, d.h. wenn die Fehlerquote zunimmt (Dambro MR et al. 1988, Hand DJ 1983). Desweiteren wurden die für die
Entstehung dieser Fehler verantwortlichen Fehlerquellen unter Verwendung des extra
hierfür neu entworfenen Ausgabemoduls für Rohdaten ausfindig gemacht, und Methoden
zur weiteren Minimierung der bestehenden Fehlerquote angeboten.
Im Folgenden sollen die meisten Fehlerquellen bzw. deren Präventionsmöglichkeiten
hinsichtlich der Qualitätssicherung der Daten in der Datenbank diskutiert werden.
4.1
Pharmakokinetische Literatur
Die Qualität der Datenbasis kann nur so gut sein, wie die Quelle, aus der die Informationen
bezogen werden.
"In der pharmakokinetischen Literatur haben sich Inhomogenitäten eingebürgert" (Sheiner
LB 1981). Die Daten sind oft heterogen, unpräzise und subjektiv (Lustman F 1978). So
wird dem Leser eine Vielzahl an Modellen, unterschiedlichen Einheiten und inkompletter
oder stark differierender Information angeboten. (Zellner D et al. 1998/1996, Aronson JK
1988, Sheiner LB 1981). "Es finden sich eigenwillige Präsentationsformen und
Variationen der Qualität. Ein Teil der Mitteilungen bestehen nur aus Fallbeschreibungen.
Es existieren Veröffentlichungen, in denen lediglich statistische Kenngrößen mitgeteilt
werden. Andere jedoch veröffentlichen zusätzlich die gesamten Rohdaten ihrer
Untersuchungen" (Schrom T 1995). Desweiteren
liegen oftmals unterschiedliche
Untersuchungsbedingungen und Patientengruppen vor (Keller F 1993).
Die nicht korrekte Anwendung statistischer Methoden in nahezu der Hälfte aller
veröffentlichter medizinischer Artikel mit statistischen Berechnungen stellt ein weiteres
Problem dar und führt zur Veröffentlichung nicht plausibler Daten. Die Veröffentlichung
65
inkorrekter oder irreführender Ergebnisse ist nicht nur eine Frage verschwendeter Gelder
und verschwendeter Zeit, sondern auch der Ethik, da Patienten ungerechtfertigten
Unannehmlichkeiten ausgesetzt werden (Jamart J 1994, Hoffmann O 1984, Glantz SA
1980). Mit Hilfe der Fehlersuche konnte bestätigt werden, daß ein Teil der in der
pharmakokinetischen Datenbasis NEPHARM dokumentierter Werte nicht plausibel sind.
Eine Verbesserung der Qualität der veröffentlichten Daten kann nur erreicht werden, wenn
die Journale als stärkste Kraft in der Qualitätskontrolle wissenschaftlicher Arbeit ihren
Revisionsprozess entsprechend modifizieren. Derartige Modifikationen würden eine
schnelle
und
effektive
Verbesserung
der
Zuverlässigkeit
der
klinischen
und
wissenschaftlichen Literatur bewirken (Glantz SA 1980), und somit auch zur Reduktion
nicht plausibler Daten in der pharmakokinetischen Datenbasis zur Folge haben.
Um dennoch eine weitestgehende Plausibilität der Daten zu erhalten bedient sich die
pharmakokinetische Datenbasis der Meta-Analyse, welche trotz allem annähernd dem
wahren Wert entsprechende Schätzungen pharmakokinetischer Parameter liefert.
4.2
Transkription pharmakokinetischer Daten
Unter Transkription versteht man die Anfertigung einer akkuraten "Kopie" der Daten
mittels Transformation von der einen (handschriftliche) in die andere (computergespeicherte) Form (Dambro MR 1988).
Schwierigkeiten beim Lesen der Handschrift, der versehentliche Austausch von
Buchstaben bzw. Zahlen oder aber fehlende Angaben, wie z.B. fehlende Angaben zur
Dimension tragen zur Fehlerentstehung bei der Dateneingabe bei und beeinträchtigen die
Qualität der Daten in der Datenbank.
Die handschriftlich fixierten Daten, welche oft in einer unformatierten und ungeordneten
Form vorliegen, müssen in eine an das Computersystem angepaßte Form gebracht werden.
In dieser Arbeit konnte gezeigt werden, daß ein großer Teil der entstandenen Fehler (2%)
als Dimensionsfehler zu klassifizieren sind. Der Großteil dieser Fehler ist dadurch
entstanden, daß bei der handschriftlichen Dokumentation oftmals Angaben zur Dimension
fehlten. Die korrekte Transkription der Daten war somit nicht gesichert. Aus diesem
Grunde
wird
empfohlen
eine
speziell
für
die
handschriftliche
Fixierung
pharmakokinetischer Parameter entworfenes Formular zu verwenden, um Vollständigkeit
und Korrektheit der Dokumentation garantieren zu können.
66
Ferner verfügt die eingebende Person oft über geringe medizinische Kenntnisse und ihr
liegen oft nur einzelne Ausdrucke oder Skizzen vor, so daß Daten falsch codiert werden.
Zusätzlich können Fehler aufgrund von mangelnder Dateneingabekenntnis, von HardwareProblemen und Kommunikationsfehlern etc. entstehen (Dambro MR 1988). Derartige
Fehler sind nicht zu unterschätzen. Die vollständige und korrekte handschriftliche
Dokumentation zusammen mit der Verbesserung der Computerkenntnisse der Daten
eingebenden Person könnten eine weitere Verbesserung der Datenqualität erzielen.
4.3
Lösungsvorschläge zur Vermeidung von Sortierungsfehlern im
physikalischen Literaturarchiv
Um Sortierungsfehler in Zukunft zu vermeiden, mußten Lösungsvorschläge überlegt und
ein System für das physikalische Literaturarchiv entworfen werden:
1) Um orthographische Fehler zu vermeiden, müssen die Personen, die für die
Dateneingabe zuständig sind, darauf hingewiesen werden, wie Autorennamen wie De
Groot ANJA, Le Corre P, MacGowan AP, Van Harten J oder Von Arnim T in die
pharmakokinetische Datenbasis eingegeben werden sollen und nach welcher
Systematik die Literatur abgeheftet werden soll (siehe Punkt 2).
2) Da die Primärliteratur alphabetisch sortiert wird, ist der Name des Erstautors entscheidend. Auf folgendes System bezüglich der Sortierung nach Erstautor ist zu achten:
Literatur mit dem Erstautor namens
• "De Groot ANJA"
wird unter dem Buchstaben D
• "Le Corre P"
wird unter dem Buchstaben L
• "MacGowan AP"
wird unter dem Buchstaben M
• "Van Harten J"
wird unter dem Buchstaben V
• "Von Arnim T"
wird unter dem Buchstaben V
abgeheftet.
3) Liegen mehrere Artikel zu einem Erstautor vor, so ist darauf zu achten, daß die
Literatur chronologisch nach dem Erscheinungsjahr sortiert wird.
67
4) Die Literatur wird zusammen mit dem Ausdruck der in die Datenbank integrierten
Datensätze abgeheftet. Zur Vermeidung der versehentlichen Bündelung mehrerer
voneinander unabhängiger Artikel müssen Alternativen zur kombinierten Abheftung
mittels einer Büroklammer angestrebt werden: Zum einen könnte man eine
kombinierte Abheftung mit Hilfe von im Vergleich zu Büroklammern unflexiblen
Heftklammern erreichen. Zum anderen ist es möglich, mit Hilfe eines zusätzlichen
Blattes, in welches der Artikel mitsamt Datensatzausdruck eingefaltet und gelocht
wird, abzuheften. Letztere Alternative zeigt sich als wertvoller, da es nicht wie bei
Verwendung von Heftklammern zu einer einseitigen sich ungünstig für die Abheftung
im Ordner auswirkenden Randverdickung kommt.
5) Die fehlerhaften Abheftung ohne erklärbarem Grund bleibt ein unlösbares Problem.
Als einziger Lösungsansatz wäre die Sortierung von zwei unabhängigen Personen,
deren Effizienz jedoch nicht bewiesen ist. Das Auffinden und Erkennen einer
fehlerhaften Sortierung kann mit einer höheren Wahrscheinlichkeit erfolgen, wenn
zwei Personen beteiligt sind.
4.4
Dateneingabe
4.4.1
Gewichtung der Fehler bei der Dateneingabe
Eine Gewichtung der Fehler ist auf jeden Fall empfehlenswert, denn die Fehlererkennung
und -eliminierung ist glücklicherweise nicht in jedem Fall dringend notwendig. Handelt es
sich um Schreibfehler, die den Sinn nicht verfälschen, wie z.B. um Fehler in der
Rechtschreibung bei der Eingabe des Titels der Literaturquelle, müssen diese nicht
unbedingt identifiziert und eliminiert werden. Andererseits gibt es Fehler, die beträchtliche
Verwirrungen erzeugen, wie z.B. fehlerhafte Autorennamen oder Laborwerte, welche als
schwerwiegend oder im Falle falscher Laborwerte sogar lebensbedrohlich zu bewerten
sind, und unbedingt einer Identifizierung und Eliminierung bedürfen (Dambro MR 1988).
68
4.4.2
Strukturierung der Dateneingabe
Um das pharmakokinetische Wissen über Arzneimittel aus Publikationen, Lehrbüchern
und elektrischen Informationssystemen für die individuelle Dosisanpassung zugänglich zu
machen, ist es notwendig dieses in eine strukturierte Datenbank zu integrieren (Keller et al.
1998). Klare Definitionen und Beschreibungen der Daten sind erforderlich, vor allem,
wenn zwei oder mehr Datensätze miteinander kombiniert werden, wie es bei der MetaAnalyse der Fall ist (Levitt SH et al. 1993). Eine suboptimale Nutzung der Informationen
durch Unvollständigkeit, Unlesbarkeit, inakkurate Informationen, Mangel an standardisierter Terminologie und Beschränkungen in der Zugänglichkeit der Informationen
sollen vermieden werden (Moorman PW et al. 1994). Die strukturierte Dateneingabe bietet
somit die Möglichkeit, die Qualität der Daten zu verbessern (Gouveia-Oliveira A et al.
1991, Kent DL et al. 1985). Somit ist die strukturierte Eingabe ein Erfordernis höchster
Rangordnung, um die einzelnen Daten trotz bestehender Inhomogenität hinsichtlich der
Materialgewinnung und -präsentation miteinander vergleichbar und für den Anwender
nutzbar zu machen und wurde bereits auf die pharmakokinetische Datenbasis angewandt.
Dennoch ist auch zukünftig darauf zu achten, eine maximale Strukturierung zu erzielen.
4.4.3
Änderungen am Eingabeformular
Um eine größere Zuverlässigkeit des Systems zu erzielen sind Veränderungen erforderlich.
Diese Veränderungen betreffen das Eingabeformular. Änderungen in Form von
Ergänzungen können zur Verbesserung der Qualität der pharmakokinetischen Datenbank
beitragen.
Man geht davon aus, daß die Anzahl der Testpersonen wichtig für die Aussagekraft der
Daten ist. Interindividuelle Unterschiede in der Pharmakokinetik, wie sie bei vielen
Arzneimitteln bestehen, sind bei einer großen Patientenzahl berücksichtigt, während es
sich bei einer kleinen Patientenzahl um individuelle Werte handelt. So müßten Daten, die
bei einer großen Patientenzahl ermittelt wurden stärker gewichtet werden, als solche, die
bei einer kleinen Patientenzahl ermittelt wurden (Powers J 1990, Sheiner LB 1981).
Andererseits muß man aber auch davon ausgehen, daß die Wahrscheinlichkeit für eine
Heterogenität innerhalb der Gruppe mit steigender Patientenzahl steigt. Aus diesem
Grunde ist die Angabe der Patientenzahl in unserem Fall nicht notwendig.
69
Wichtiger für die Analyse der Daten ist die Angabe der Abweichung, der Abweichungsart
(Standardabweichung, etc.) und der Wertart (Median, Mittelwert, Minimum, Maximum).
Diese Angaben sind wichtig für die Meta-Analyse, die eine um so genauere Schätzung
eines pharmakokinetischen Wertes aus vielen Einzelwerten liefert, je präziser die Rohdaten
sind (Zellner D 1997, Chalmers TC 1981).
Es läßt sich also sagen, daß präzisere Schätzungen mittels Meta-Analyse erzielt werden
können, wenn mehr Wert auf die Angabe sowohl der Patientenzahl, als auch der
Abweichung, der Abweichungsart und der Wertart gelegt wird.
Desweiteren ist zu erwähnen, daß für gewisse Biotransformationsreaktionen sogenannte
genetische Polymorphismen existieren, das heißt es gibt eine Subpopulation der
Bevölkerung, die gewisse Fremdstoffe nur sehr langsam metabolisieren kann, sogenannte
langsame Metabolisierer, und eine die gewisse Fremdstoffe sehr schnell metabolisieren
kann, sogenannte schnelle Metabolisierer. Dies ist daher von Bedeutung, da diese zwei
Populationen eine unterschiedliche Pharmakokinetik bezüglich dieser bestimmten Fremdstoffe aufweisen. Diese Unterschiede müssen berücksichtigt werden, da sie neben den
unterschiedlichen Arzneimitteleliminationsarten auch ein unterschiedliches Interaktionspotential für verschiedene Arzneimittel zeigen (Meier-Abt PJ 1993). Aus diesem Grunde
wurde eine zusätzliche Leiste namens „Subtyp“, welche die unterschiedliche Metabolisierung berücksichtigt, im Eingabeformular zugefügt.
Zur zukünftigen Vermeidung der fehlerhaften Eingabe von Dimensionen und Umrechnungsfaktoren, wäre es am effektivsten gewesen, die Möglichkeit der manuellen Eingabe
von neuen Dimensionen über das Eingabemodul zu sperren. Da jedoch uneinheitliche
Maßsysteme in der Quellliteratur verwendet werden, mußte ein anderer Lösungsweg angeboten werden: Bei der Tabelle "Dimensionen" im Eingabemodul wurde eine Spalte mit der
Bezeichnung "kontrolliert" eingefügt. Alle kontrollierten Dimensionen wurden mit einem
"ja" gekennzeichnet, alle neuen, unkontrollierten Dimensionen werden zukünftig mit
einem "nein" gekennzeichnet. So muß man in regelmäßigen Zeitabständen nur jene
Dimensionen und ihre Umrechnungsfaktoren nachprüfen, die mit einem "nein" in der
Spalte "kontrolliert" versehen sind. Dies wird in Zukunft nicht nur Fehler vermeiden, es
wird auch eine enorme Zeitersparnis bei der Kontrolle der Dimensionen mit ihren
Umrechnungsfaktoren zur Folge haben. Die Fehlerrate kann auf diese Weise in Zukunft
automatisch reduziert werden.
70
4.4.4
Identifizierung "unbekannter Literaturquellen"
Um "unbekannte Literaturquellen" zu identifizieren, müßten alle Literaturquellen zu den
jeweiligen Generika durchgesucht werden, um den Datensätzen die Literaturquelle klar
zuordnen zu können. Bei einem Umfang von etwa 4.273 Datensätzen, ist davon auszugehen, daß dies einen großen Arbeitsaufwand bedeuten würde. Ferner konnten die Ergebnisse der Fehler- und Fehlerquellensuche zeigen, daß es sich bei dieser Eigenart der
pharmakokinetischen Datenbasis eher um ein "Schönheitsfehler" handelt.
4.4.5
Doppelte Dateneingabe
Fehler, die bei der Dateneingabe entstanden sind, können viele Probleme verursachen.
Eine Technik, die die Anzahl der falschen Eingaben in einer Datenbank verringern kann,
ist die doppelte Dateneingabe (Rao JK 1995, Cummings J 1994, Dambro MR 1988). Sie
stellt sicher, daß die handschriftlich fixierten Informationen korrekt in die Datenbank
transkripiert werden. Ferner können Tippfehler schnell identifiziert und korrigiert werden
(Day S et al. 1998, Crombie IK 1986). Sie wird als eine Methode beschrieben, die die
Qualität der Daten in einem hohen Maß sichert, indem sie die Fehlerrate in der Datenbank
verringert (Zhang J 1998, Meier P 1990).
Die Integrität der Datensätze wird verbessert, der Zeitaufwand für die Qualitätskontrolle
wird verringert, die Eingabefehler werden wirksam beseitigt und die Datenanalyse erweist
sich als effizienter. Der Aufwand hinsichtlich der Kosten und der Zeit ist im Verhältnis
zum Nutzen gering, muß jedoch individuell gegen die einfache Dateneingabe mit Blick auf
das ultimative Ziel, überzeugende und valide Ergebnisse zu erhalten, abgewogen werden
(Zhang J 1998, Rao JK 1995, Cummings J 1994). Im Falle der pharmakokinetischen
Datenbasis erwies sich die doppelte Dateneingabe, jedoch zum einen mit einem Textverarbeitungsprogramm und zum anderen mit einem Datenverarbeitungsprogramm, als nicht
vorteilhafter als die einfache, strukturierte Dateneingabe, da keine signifikante Abnahme
der Fehlerrate erkennbar war (Zellner D et al. 1996).
71
4.4.6
Qualitätskontrolle der Daten
Die Hauptaufgabe der Qualitätskontrolle ist die Identifizierung, die Überprüfung und die
Korrektur der Fehler in den gesammelten Daten. Die Daten müssen routinemäßig auf
Fehler überprüft werden und so lange korrigiert werden, bis sie fehlerfrei sind (Carlson D
et al. 1995, Karrison T 1981). Kann jedoch die Fehlerquelle für einen falschen Wert nicht
bestimmt werden und ist somit eine Korrektur nicht möglich, so sollte dieser Wert einfach
ausgelassen werden (Duquet W et al. 1979).
Folgende Forderungen werden an das Eingabeprogramm gestellt: Erstens, Überprüfung
jedes Feldes des neuen Datensatzes und zweitens, Vergleich der Neueingabe mit bereits
integrierten Datensätzen, um zu ermitteln, ob die Neueingabe konsistent mit anderen
Eingaben ist. Derartige Programme für die Dateneingabe müssen in der Lage sein, eine
Vielzahl verschiedener Fehler wie z.B. fehlende Eingaben, Ausreißer, Inkonsistenzen und
andere Datenprobleme zu erkennen (Felegi IP 1976). Dazu müssen Regeln für die
Plausibilitätsprüfung formuliert werden (Heindl B et al. 2000).
Auch das Schreiben eines Protokolls über Veränderungen der Datenbank im Sinne einer
Korrektur oder einer Neueingabe stellt eine gute Möglichkeit für die visuelle
Fehlererkennung, - überprüfung und - eliminierung dar (Findley TW 1989). Alle protokollierten Daten werden dabei in regelmäßigen Zeitabständen durchgesehen. Jede
Dateneingabe bzw. Korrektur wird auf fehlende Daten, stark abweichende Daten und
unlogische oder inkonsistente Daten überprüft. Diese Überprüfungen dienen nicht nur zur
Erkennung und Korrektur von Fehlern, sie ermöglichen auch die Erkennung, wo
Übungsbedarf besteht und / oder wo Mißverständnisse vorlagen (Severe JB et al. 1989).
Die Integration derartiger Mechanismen zur automatischen bzw. visuellen Identifizierung,
Überprüfung und Eliminierung von Eingabefehlern ist die wichtigste Maßnahme zur
Sicherstellung der Qualität der pharmakokinetischen Datenbasis, da schon bei der
Dateneingabe die Dokumentation nicht plausibler Daten verhindert bzw. eingeschränkt
wird.
72
4.5
Datenanalyse
Um zuverlässige pharmakokinetische Daten für die individuelle Dosisanpassung zu
erhalten, müssen die pharmakokinetischen Daten aus der Literatur mit Hilfe verschiedener
statistischer Methoden analysiert werden (Zellner D et al. 1996).
Die Meta-Analyse wird dabei definiert als eine statistische Methode, welche die Ergebnisse mehrerer voneinander unabhängiger Studien objektiv, also expertenunabhängig,
kombiniert (Zellner D et al. 1998, Anello C 1995). Die Meta-Analyse klinischer Studien
hat eine Stufe der generellen Akzeptanz in der Statistik und in der klinischen Literatur
erreicht, obwohl die Ergebnisse von Studien, deren Qualität teilweise als mangelhaft
anzusehen ist, kombiniert werden (Dickersin K 1992). Jedoch sollte eine Aufgabe der
Meta-Analyse
sein,
Schwachstellen
aufzudecken
und
die
Forscher
zu
einer
Qualitätsverbesserung in zukünftigen Studien zu ermutigen. Ferner könnte ein reales
Ergebnis der Meta-Analyse als Richtwert für zukünftige Studien dienen (Chalmers TC
1991). Die Ergebnisse der Meta-Analyse müssen dennoch mit Vorsicht interpretiert
werden und als zusätzliche Forschungsdaten angesehen werden, die jedoch eine nützliche
Richtung in der Krankenversorgung und zukünftigen Foschung angibt (Dickersin K 1992).
Der stetigen Verbesserung der statistischen Qualität derartiger Datenanalysierprogramme
ist große Bedeutung beizumessen, um die Zuverlässigkeit, Power und Effizienz der
statistischen Methoden zu erhöhen und an neuere Studien anzupassen. Es ist nachzuprüfen,
ob die angewandten Methoden korrekte Ergebnisse liefern. Denn eine gute Methode für
die Schätzung pharmakokinetischer Parameter ist nur jene, die Schätzungen produziert, die
dem wahren Wert nahekommen (Purves RD 1993, Chalmers TC 1991, Goodwin LD 1984,
Haux R 1983). Dies bedeutet, daß nicht vergessen werden darf, stets neuere, effizientere
Methoden zur Schätzung pharmakokinetischer Parameter in die pharmakokinetische
Datenbasis NEPHARM zu integrieren.
4.6
Aktualisierung des Ausgabemoduls
Das Ausgabemodul repräsentiert die Ergebnisse der Meta-Analyse als relativ gute
Schätzungen aus heterogenen Daten, und ist das Endprodukt, welches die Grundlage für
die individuelle Dosisanpassung bildet. Aus diesem Grunde besteht die Notwendigkeit, die
73
Möglichkeit zu eröffnen, stets aktuelle Daten abfragen zu können. Dazu bedarf es eines
regelmäßigen "Updates" (Rao JK 1995).
4.7
Sicherung des Computersystems
Ebenfalls von Bedeutung für die Qualitätssicherung ist die Anfertigung mehrerer
Sicherheitskopien des Programms, für den Fall, daß das Computersystem eine
Manipulation erfährt. Dabei sollte sich eine Kopie in der Nähe des Computers befinden,
eine weitere außerhalb des Büros (Rao JK 1995). Auch von NEPHARM werden
regelmäßig komplette Sicherheitskopien angefertigt.
4.8
Empfehlungen
Um eine möglichst hohe Qualität der pharmakokinetischen Datenbank garantieren zu
können, ist es empfehlenswert, die Fehlerquellen zu (er-)kennen und Mechanismen zu
integrieren, welche in der Lage sind, die Fehlerentstehung wirksam zu minimieren.
Wichtig in diesem Zusammenhang ist es zu wissen, daß die meisten Fehler am Anfang der
Datenverarbeitungskette entstehen, also in den Publikationen und bei der Dateneingabe, so
daß der gezielte Eingriff in den Ablauf der Datenverarbeitung genau dort erfolgen muß.
Für die Qualitätssicherung der pharmakokinetischen Datenbasis NEPHARM werden
folgende Empfehlungen ausgesprochen:
•
Aktualisierung des Extracts
Damit alle vorgenommenen Veränderungen an der pharmakokinetischen Datenbasis
wirksam und sichtbar werden können, ist die Aktualisierung des Extracts notwendig.
•
Integration des "Vier-Augen-Prinzips"
Die eingegebenen Daten sollen nur durch eine zweite kontrollierende Person freigegeben werden können.
74
•
Integration von check-Klauseln
Ein Wertebereich für neu einzugebende Werte soll mit Hilfe bereits eingegebener
Werte festgelegt werden. Zusätzlich kann eine maximal mögliche Abweichung von
diesem Wertebereich angegeben werden.
•
Integration einer Anwendungslogik
Die in dieser Arbeit verwendeten pharmakokinetischen Formeln können als
Anwendungslogik in das System integriert werden. Dabei können neu einzugebende
Parameter mit Hilfe bereits dokumentierter Werte berechnet werden. Dieser neu
berechnete Wert wird dann mit dem neu einzugebenden Wert verglichen. Auch hier
kann zusätzlich eine maximal mögliche Abweichung vom errechneten Wert
vorgegeben werden.
•
Integration von Triggern
Trigger sollen anzeigen, wenn der neu eingegebene Wert von dem Wertebereich bzw.
von dem berechneten Wert in einem nicht akzeptablen Ausmaß abweicht. Der neu
einzugebende Wert kann daraufhin auf Fehler überprüft werden, bevor er in das
System integriert wird.
•
Integration eines Protokolls
Über zukünftige Datenänderungen, sei es in Form von Neueingaben oder Korrekturen,
soll von der Datenbasis ein Protokoll angefertigt werden. Das Protokoll ermöglicht die
zusätzliche Nachkontrolle aller neu dokumentierten Werte.
Die Konsequenzen der Integration dieser Methoden zur Qualitätssicherung lassen sich erst
in der Zukunft quantifizieren. Momentan läßt sich nach Überlegung nur sagen, daß das
"Vier-Augen-Prinzip", die check-Klauseln, die Anwendungslogik sowie vor allem das
Protokoll über Datenänderungen wohl die größte Effizienz bezüglich der Qualitätssicherung der Daten in der pharmakokinetischen Datenbasis erzielen werden.
Es besteht das Bestreben mittels der Kombination, sowohl aller vorgenommen, als auch
aller vorgeschlagenen Veränderungen an der pharmakokinetischen Datenbais NEPHARM
eine annähernd fehlerfreie Datenbank zu erhalten. Diesem Bestreben kann auch mit relativ
hoher
Sicherheit
nachgekommen
werden,
für
eine
sichere
und
effektive
Arzneimittelanwendung ist jedoch ein fundiertes Grundwissen von der Pharmakokinetik
75
und Pharmakodynamik als Grundlage für die Vorhersage des Verhaltens bestimmter
Arzneimittel im Organismus mindestens genauso wichtig (Rasymas A 1992).
76
5.
Zusammenfassung
Das Ziel der Arzneimitteltherapie ist es, optimale und sichere Veränderungen durch eine
effektive Arzneimitteldosis hervorzurufen. Um diesem Ziel näher zu kommen, wurde eine
pharmakokinetische Datenbasis NEPHARM entworfen, die eine optimale individuelle
Dosisanpassung ermöglichen soll. Die hierfür benötigten Daten werden aus Primärliteratur
bezogen. Leider existieren Fehler in dieser pharmakokinetischen Datenbasis, die durch
verschiedene Faktoren bedingt sind und die Möglichkeit einer optimalen individuellen
Dosisanpassung einschränken. Da heutzutage die Qualität ein wichtiges Bestreben in allen
Gebieten der Wissenschaft ist, ist es von großer Bedeutung, Qualitätssysteme zu
entwickeln und zu integrieren, die es ermöglichen, eine möglichst hohe Qualität der Daten
in einer Datenbank zu garantieren, indem sie die Daten während und nach der Eingabe
kontrollieren.
Für die Bewertung der Qualität war es zunächst notwendig, die Fehlerrate zu bestimmen
und die Fehler zu klassifizieren und zu quantifizieren. Ebenso mußten die Faktoren für die
Fehlerentstehung bestimmt werden, um Möglichkeiten für Verbesserungen des Systems
anbieten zu können. Dazu wurde im ersten Schritt eine Bestandsaufnahme des
physikalischen
Literaturarchivs
als
Informationsquelle
der
pharmakokinetischen
Datenbasis vorgenommen und die fehlende Literatur besorgt. Im zweiten Schritt wurden
statistische Tests wie Konsistenz- und Plausibilitätstests durchgeführt und ein
Analysierwerkzeug entworfen, welches dem Anwender die Möglichkeit eröffnet, schnell
und einfach auf Rohdaten zurückzugreifen, um einen aus den statistischen Tests als nicht
plausiblen hervorgehenden Wert nachzuprüfen. Im dritten Schritt konnte eine
Klassifizierung und Korrektur der Fehler erfolgen und die Fehlerquellen bestimmt werden.
Es stellte sich heraus, daß die Heterogenität der Daten in der Literatur und der Prozeß der
Transkription und Dateneingabe eine der anfälligsten Faktoren der Fehlerentstehung sind.
Um der Heterogenität der Daten in der Literatur entgegenzuwirken, müssen in der Zukunft
verbesserte statistische und analytische Methoden entwickelt werden, die in der Lage sind,
den Gebrauch der zur Verfügung stehenden Information zu optimieren und standardisiert
zu berichten. Um vor allem in den Prozeß der Transkription und der Dateneingabe
einzugreifen, wurden verschiedene Mechanismen wie das „Vier-Augen-Prinzip“, die
Bestimmung von Integritätsbedingungen, check-Klauseln, die Anwendungslogik, Trigger
und die Protokoll-führung über Datenänderungen angeboten, die es ermöglichen können,
die Qualität der Daten zu erhöhen und einen bestimmten Qualitätsstand zu garantieren.
77
Dabei spielt vor allem die Verwendung bereits dokumentierter Daten und die Integration
pharmakokinetischer Formeln eine bedeutende Rolle.
In diesem Zusammenhang wichtig erscheint die Tatsache, daß erst durch die Kombination
verschiedener Methoden dem Bestreben einer fehlerfreien Datenbank näher gekommen
werden kann.
78
6.
Literatur
Anello C, Fleiss JL
Exploratory or analytic meta-analysis: should we distinguish between them ?
J Clin Epidemiol 48(1): 109-116 (1995)
Aronson JK, Dengler HJ, Dettli L, Follath F
Standardization of symbols in clinical pharmacology.
Eur J Clin Pharmacol 35: 1-7 (1988)
Benet LZ, Mitchel JR, Sheiner LB
Pharmacokinetics: The dynamics of drug absorption, distribution and elimination.
In Goodman and Gilman´s. The pharmacological basis of therapeutics. 8th Ed Pergamon,
New York: 3-32 (1990)
Benet LZ, Zia-Amirhosseini P
Basic principles of pharmacokinetics.
Toxicol Pathology 23(2): 115-123 (1995)
Benet LZ
Pharmacokinetic parameters: which are necessary to define a drug substance?
Eur J Respir Dis (Suppl) 134: 45-61 (1984)
Birnbaum LS
Pharmacokinetic basis of age-related changes in sensitivity to toxicants.
Annu Rev Pharmacol 31: 101-128 (1991)
Biskup J
Grundlagen von Informationssystemen
Vieweg-Verlag, Braunschweig, Wiesbaden (1995)
79
Bjornsson TD
Practical uses of individual pharmacokinetic parameters in drug development and clinical
practice: examples and simulations.
European Journal of Drug Metabolism and Pharmacokinetics 22(1):1-14 (1997)
Buffington DE, Lampasona V, Chandler MH
Computers in pharmacokinetics. Choosing software for clinical decision making.
Clin Pharmacokinet 25 (3): 205-216 (1993)
Burton ME, Vasko MR, Brater DC
Comparison of drug dosing methods.
Clin Pharmacokinet 10: 1-37 (1985)
Carlson D, Wallace CJ, East TD, Morris AH
Verification & validation algorithms for data used in critical care decision support
systems.
Proc Annu Symp Comput Appl Med Care 56: 188-192 (1995)
Chalmers TC, Smith H Jr., Blackburn B
A method for assessing the quality of a randomized control trial.
Control Clin Trials 2: 31-49 (1981)
Chalmers TC
Problems induced by meta-analysis.
Stat Med 10: 971-980 (1991)
Chrymko MM, Scherpbier HJ
Computerized pharmacokinetics on an institutional clinical information system.
Pharm Pract Manag Q 15 (3): 36-43 (1995)
Chutka DS, Evans JM, Fleming KC, Mikkelson KG
Symposium on geriatrics - Part I: Drug prescribing for elderly patients.
Mayo Clin Proc 70 (7): 685-693 (1995)
80
Clewell HJ 3rd, Anderson ME
Use of physiologically based pharmacokinetic modeling to investigate individual versus
population risk.
Toxicology 111 (1-3): 315-329 (1996)
Crombie IK, Irving JM
An investigation of data entry methods with personal computer.
Comput Biomed Res 19(6): 543-550 (1986)
Crooks J, Stevenson I
Drug response in the elderly - sensitivity and pharmacokinetic considerations.
Age Ageing 10(2): 73-80 (1981)
Cummings J, Masten J
Customized dual data entry for computerized data analysis.
Qual Assur 3(3): 300-303 (1994)
Dadam P
Vorlesungsskript: Grundlagen - Datenbanken und Informationssysteme
(1999)
Dambro MR, Weiss BD
Assessing the quality of data entry in a computerized medical records system.
J Med Syst 12(3): 181-187 (1988)
Day S, Fayers P, Harvey D
Double data entry: what value, what price ?
Control Clin Trials 19: 15-24 (1998)
Dettli L
Drug dosage in renal disease.
Clin Pharmacokinet 1: 126-134 (1976)
81
Dickersin K, Berlin JA
Meta-analysis: state-of-the-science.
Epidemiologic Reviews 14: 154-176 (1992)
Dominguez-Gil A
Contribution of biopharmaceutics and pharmacokinetics to improve drug therapy.
Eur J Drug Metab Pharmacokinet 18 (1): 1-5 (1993)
Duquet W, De Meulenaere F, Borms J
A method for detecting errors in data of growth studies.
Annals of Human Biology 6(5): 431-441 (1979)
Epstein M
Effects of aging on the kidney.
Fed Proc 38(2): 168-171 (1979)
Evans WE, Relling MV, Rodman JH, Chrom WR, Boyett JN, Pui CH
Conventional compaired with individualized chemotherapy for childhood acute
lymphoblastic leukemia.
N Eng J Med 338: 499-505 (1998)
Felegi IP, Holt D
A systematic approach to automatic edit and imputation.
J Amer Statist Assoc 71: 17-35 (1976)
Fillastre JP, Moulin B, Dhib M
Pharmacokinetics and the aged person.
Nephrologie 11(5): 285-287 (1990)
Fillastre JP, Singlas E
Pharmacokinetic of newer drugs in patients with renal impairment (Part I).
Clin Pharmacokinet 20(4): 293-310 (1991)
82
Findley TW, Stineman MG
Research in physical medicine and rehabilitation. V. Data entry and early exploratory data
analysis.
Am J Phys Med Rehabil 68(5): 240-251 (1989)
Frankewitsch T, Zellner, D, Keller F
Elektronische Arzneimittelinformationssysteme
Münch Med Wschr 138(9): 140-143 (1996)
Gibaldi M, Perrier D
Pharmacokinetics. Second edition, Revised and Expanded.
Drugs and the Pharmaceutical Sciences, Volume 15. Marcel Dekker, New York (1982)
Gibson D, Harvey AJ, Everett V, Parmar MK
Is double data entry necessary?
Control Clin Trials 15(6): 482-488 (1994)
Glantz SA
Biostatistics: How to detect, correct and prevent errors in the medical literature.
Circulation 61(1): 1-7 (1980)
Goodwin LD
Increasing efficiency and precision of data analysis: multivariate statistical techniques.
Nurs Res 33(4): 247-249 (1984)
Gouveia-Oliveira A, Raposo VD, Salgado NC et al.
Longitudinal comparative study on the influence of computers on reporting of clinical
data.
Endoscopy 23: 334-337 (1991)
Grams RR, Zhang D, Yue B
A primary care application of an integrated computer-based pharmacy system.
J Med Syst 20(6): 413-422 (1996)
83
Greenblatt DJ
Pharmacokinetic principles in clinical medicine.
J Clin Pharmacol 32: 118-123 (1992)
Gundert-Remy U
Age as a factor in dose-response relationship of drugs.
Z Gerontol Geriatr 28(6): 408-414 (1995)
Guth DJ, Raymond TS
A database designed to support dose-response analysis and risk assessment.
Toxicology 114(1): 81-90 (1996)
Hand DJ
Common errors in data analysis: the apparent error rate of classification rules.
Psychological Medicine 13: 201-203 (1983)
Heindl B, Pollwein B, Schleutermann S, Haller M, Finsterer U
Development of a knowledge-base for automatic monitoring of renal function of intensive
care patients over time.
Comp Meth Prog Biomed 62: 1-10 (2000)
Heinemeyer G
Hepatischer Arzneimittelmetabolismus bei Patienten mit eingeschränkter Nierenfunktion.
Nieren- und Hochdruckkrankheiten 19: 442-444 (1990)
Heuer A, Saake G
Datenbanken: Konzepte und Sprachen
MITP-Verlag, Bonn, 2. Auflage (2000)
Heuer A
Objektorientierte Datenbanken - Konzepte, Modelle, Standards und Systeme
Addison-Wesley, Bonn, 2. Auflage (1997)
84
Hoffmann O
Application of statistics and frequency of statistical errors in articles in Acta
Neurochirurgica.
Acta Neurochirurgica 71: 307-315 (1984)
Ishizaki T
Drug therapy in the elderly.
Nippon Ronen Igakkai Zasshi 29(1): 10-16 (1992)
Jamart J
Statistical tests in medical research.
Acta Oncologica 37(1): 723-727 (1992)
Jelliffe RW, Schumitzky A, Van Guilder M, Liu M, Hu L, Maire P, Gomis P, Barbaut X,
Tahani B
Individualizing drug dosage regimens: roles of population pharmacokinetic and dynamic
models, Bayesian fitting, and adaptive control.
Ther Drug Monit 15: 380-393 (1993)
Jusko WJ, Gibaldi M
Effects of change in elimination on various parameters of the two-compartment open
model.
J Pharm Sci 61: 1270-1273 (1972)
Karrison T
Data editing in a clinical trial.
Control Clin Trials 2: 15-29 (1981)
Keller F, Erdmann K, Giehl M, Buettner P
Nonparametric meta-analysis of published data on kidney-function dependence of
pharmacokinetic parameters for the aminoglycoside Netilmicin.
Clin Pharmacokinet 25(1): 71-79 (1993)
85
Keller F, Frankewitsch T, Zellner D, Simon S, Czock D, Giehl M
Standardized structure and modular design of a pharmacokinetic database.
Comput Meth Progr Biomed 55: 107-115 (1998)
Keller F, Frankewitsch T
Besonderheiten der Arzneimitteldosierung im Alter und der Niereninsuffizienz
Münch Med Wschr 10: 142-143 (1997)
Keller F, Giehl M, Frankewitsch T, Zellner D, Simon S
Overlooked decrease in renal function as a major reason for adverse drug reactions in the
elderly.
Europ J Intern Med 7: 211 - 215 (1996)
Keller F, Schwarz A
Pharmakokinetik bei Niereninsuffizienz.
Gustav Fischer Verlag Stuttgart - New York (1987)
Keller F
Arzneimitteltherapie bei Patienten mit Niereninsuffizienz.
Therapie-Handbuch. Domschke, Hohenberger, Meinertz, Reinhardt, Tölle, Wilmanns.
Urban & Schwarzenberg München - Wien - Baltimore.
Kent DL, Shortliffe EH, Carlson RW, Bischoff MB, Jacobs CD
Improvment in data collection through physician use of computer-based chemotherapy
treatment consultant.
J Clin Oncol 3: 1409-1417 (1985)
Kokot F
Dosage of drugs in patients with kidney diseases.
Wiad Lek 49(7-12): 87-91 (1996)
Lauven PM, Röper A
Grundlagen der Pharmakokinetik
Anaesthesist 44: 663-676 (1995)
86
Lenert LA, Klostermann H, Coleman RW, Blaschke TF
Practical computer-assisted dosing for aminoglycoside antibiotics.
Antimicrob Agents Chemother 36 (6): 1230-1235 (1992)
Levitt SH, Aeppli DM, Potish R, Lee CK, Nierengarten ME
Influences on inferences.
Cancer 72: 2075-2082 (1993)
Lindeman RD
Changes in renal function with aging. Implications for treatment.
Drugs Aging 2(5): 423-431 (1992)
Lustman F
Processing medical records: data related problems.
Med Inform 3(4): 317-325 (1978)
Meier P
Discussion following Neaton et al.
Stat Med 9: 124 (1990)
Meier-Abt PJ, Meier C
Interaktionen von Medikamenten als Ursache von unerwünschten Arzneimittelnebenwirkungen.
Therapeutische Umschau 50(1): 42-48 (1993)
Merle Y, Mentre F
Bayesian design criteria: computation, comparison, and application to a pharmacokinetic
and pharmacodynamic model.
J Pharmacokinet Biopharm 23(1): 101-125 (1995)
Meyer BR, Bellucci A
Renal function in the elderly.
Cardiol Clin 4(2): 227-234 (1986)
87
Meyer BR
Renal function aging.
J Am Geriatr Soc 37(8): 791-800 (1989)
Moorman PW, Van Ginneken AM, Van der Lei J, Van Bemmel JH
A model for structured data entry based on explicit descriptional knowledge.
Meth Inform Med 33: 454-463 (1994)
Muhlberg W, Platt D
Age-dependent changes of the kidneys: pharmacological implications.
Gerontology 45(5): 243-253 (1999)
Niederstadt C, Steinhoff J
The kidneys in aging.
Z Gerontol Geriatr 30(3): 200-207 (1997)
Oellerich M
Therapeutic drug monitoring and pharmacokinetic dose prediction methods.
Wien Klin Wochenschr (Suppl) 191: 12-15 (1992)
Piafsky KM
Disease-induced changes in plasma binding of drugs.
Clin Pharmacokinet 5: 246-262 (1980)
Purves RD
Methods for estimating pharmacokinetic parameters should be thoroughly tested.
J Pharm Sci 82(10): 1064-1065 (1993)
Rao JK, Callahan LF
Systems for data analysis.
Rheuma Dis Clin N Am 21(2): 359-379 (1995)
Rasymas A
Basic pharmacology and pharmacokinetics.
Clin Pediatr Med Surg 9(2): 211-221 (1992)
88
Reidenberg MM
Trends in clinical pharmacokinetics.
Clin Pharmacokinet 24(1): 1-9 (1993)
Reynolds JR
Pharmacokinetic considerations in critical care.
Crit Care Nurs Clin North Am 5(2): 227-235 (1993)
Reynolds-Haertle RA, McBride R
Single vs. double data entry in CAST.
Control Clin Trials 13(6): 487-494 (1992)
Riggs MM
Population pharmacokinetics/pharmacodynamics and individualized drug therapy.
J Am Pharm Assoc (Wash) 37 (1): 59-61 (1997)
Rosner GL, Muller P
Bayesian population pharmacokinetic and pharmacodynamic analyses using mixture
models.
J Pharmacokinet Biopharm 25(2): 209-233 (1997)
Schrom T
Erstellung und Evaluierung einer pharmakokinetischen Datenbank als Basis einer
computergestützten Dosisanpassung bei Niereninsuffizienz.
Dissertation zur Erlangung der medizinischen Doktorwürde (Freie Universität Berlin 1995)
Sebaldt RJ, Kreeft JH
Efficient pharmacokinetic modeling of complex clinical dosing regimens: the universal
elementary dosing regimen and computer algorithm EDFAST.
J Pharm Sci 76 (2): 93-100 (1987)
89
Severe JB, Schooler NR, Lee JH, Haas G, MueserKT, Rosen P, Shortell D, Shumway M
Ensuring data quality in a multicenter clinical trial: remote site data entry, central
coordination and feedback.
Psychopharmacology Bulletin 25(3): 488-490 (1989)
Sforza VA
Quality data: what are they ?
Ann 1st Super Sanita 30(4): 439-443 (1994)
Sheiner LB, Beal SL
Evaluation of methods for estimating population pharmacokinetic parameters.
J Pharmacokinet Biopharm 9(5): 635-651 (1981)
Sheiner LB, Benet LZ, Pagliaro LA
Pharmacokinetic data a standard approach to compiling clinical pharmacokinetic data.
J Pharmacokinet Biopharm 9: 59-127 (1981).
Sitar DS
Metabolism and pharmacokinetics of drugs in the aging population.
Clin Biochem 26: 437-438 (1993)
Terezhalmy GT
Rational pharmacotherapy for the elderly.
Dent Clin North Am 33(1): 59-66 (1989)
Tsujimoto G, Hashimoto K, Hoffman BB
Pharmacokinetic and pharmacodynamic principles of drug therapy in old age. Part 1
Int J Clin Pharm Ther Toxicol 27(1): 13-26 (1989)
Turnheim K
Drug dosage in the elderly. Is it rational?
Drugs Aging 13(5): 357-379 (1998)
90
Viani A, Rizzo G, Carrai M, Pacifici GM
The effect of aging on plasma albumin and plasma protein binding of diazepam, salicylic
acid and digitoxin in healthy subjects and patients with renal impairment.
Br J Clin Pharmac 33: 299-304 (1992)
Wakefield Y
Bayesian individualization via sampling-based methods.
J Pharmacokinet Biopharm 24(1): 103-131 (1996)
Weiss M
Theoretische Pharmakokinetik
Verlag Gesundheit GmbH, Berlin 1990
Williams L, Lowenthal DT
Drug therapy in the elderly.
South Med J 85(2): 127-131 (1992)
Woodhouse KW
Pharmacokinetics of drugs in the elderly.
J Roy Soc Med (Suppl. 23) 87: 2-4 (1994)
Yuen GJ
Altered pharmacokinetics in the elderly.
Clin geriatr Med 6(2): 257-267 (1990)
Zaske DE, Cipolle RJ, Rotschafer JC, Kohls PR, Strate RG
Individualizing Amikacin regimens: accurate method to achieve therapeutic
concentrations.
Ther Drug Monit 13: 502-506 (1991)
Zauderer B
Age-related changes in renal function.
Crit Care Nurs Q 19(2): 34-40 (1996)
91
Zellner D, Frankewitsch T, Keller F
Synthesis of pharmacokinetic parameters of vancomycin via bootstrap methods.
Int J Clin Pharm Ther 36(10): 554-560 (1998)
Zellner D, Frankewitsch T, Simon S, Keller F
Statistical analysis of heterogenous pharmacokinetic data from literature.
Eur J Clin Chem Clin Biochem 34(7): 585-589 (1996)
Zellner D, Zellner GE, Keller F
Meta-analysis of vancomycin pharmacokinetics.
Clin Research & Reg Affairs 15(2): 91-113 (1998)
Zellner D
Metaanalyse pharmakokinetischer Literaturdaten.
Dissertation zur Erlangung des Doktorgrades der Humanbiologie an der Universität Ulm
(1997)
Zhang J, Hu W
Single or double data entry: considerations based on a simple binominal model.
Control Clin Trials 19: 56-58 (1998)
92
7.
Danksagung
Mein besonderer Dank gilt Herrn Prof. Dr. med. F. Keller für die Überlassung des Themas,
die vielfältigen Anregungen und die vorzügliche Betreuung während der Arbeit.
Weiterhin möchte ich Herrn Dr. med. D. Czock für seinen großen, freundschaftlichen
Einsatz danken, der wesentlich zur Realisation dieser Arbeit beigetragen hat, sowie für
zahlreiche Ideen und Korrekturen, Herrn Dr. Zellner für die statistische Betreuung und
Frau Müller für die freundliche Zusammenarbeit.
93
8.
Lebenslauf
Silvia Seles
Max-Eyth-Straße 22
71691 Freiberg am Neckar
Persönliche Daten
geb. am 27.10.1976 in Stuttgart
ledig
Ausbildungsdaten
Schulbildung
1982-1986
Vogelsang Grundschule in Stuttgart
1986-1992
Mädchengymnasium St. Agnes in Stuttgart
1992-1995
Mörike Gymnasium in Ludwigsburg
Studium
1995-2002
Studium der Humanmedizin, Universität Ulm
September 1997
- Ärztliche Vorprüfung
August 1998
- Erster Abschnitt der Ärztlichen Prüfung
April 2001
- Zweiter Abschnitt der Ärztlichen Prüfung
April 2002
- Dritter Abschnitt der Ärztlichen Prüfung
94
Herunterladen