Universität Ulm Medizinische Fakultät Abteilung Innere Medizin II Sektion Nephrologie Sektionsleiter: Prof. Dr. Frieder Keller Fehlersuche, Fehlerquellenbestimmung und Vorschlag von Methoden zur Qualitätssicherung in der pharmakokinetischen Datenbasis NEPHARM Dissertation zur Erlangung des Doktorgrades der Medizin der Medizinischen Fakultät der Universität Ulm vorgelegt von Silvia Seles geboren in Stuttgart Ulm 2000 Amtierender Dekan: Prof. Dr. R. Marre 1. Berichterstatter: Prof. Dr. F. Keller 2. Berichterstatter: Prof. Dr. D. Grab Tag der Promotion: 16.05.2002 2 Inhaltsverzeichnis Seite 1. Einleitung 8 1.1 8 Allgemeiner Teil 1.1.1 Pharmakokinetik 10 1.1.2 Methoden der Dosisanpassung 12 1.1.3 Klinische Relevanz 14 1.1.4 Projekt WAIN 15 (Wissensbasis für ein allgemeines Arzneimittelinformationssystem) 1.2 2. 17 1.2.1 Physikalisches Literaturarchiv 17 1.2.2 Pharmakokinetische Datenbasis NEPHARM 17 Methoden 18 2.1 Physikalisches Literaturarchiv 18 2.2 Beschaffung der Primärliteratur, Auswahl relevanter pharmakokinetischer Parameter und Transkription 19 Pharmakokinetische Datenbasis 19 2.3.1 Struktur der pharmakokinetischen Datenbasis 19 2.3.2 Methoden zur Fehler- und Fehlerquellensuche 28 2.4 Fehlersuche und Fehlerquellenbestimmung 34 2.5 Grundlagen zu Datenbanken 39 2.3 3. Aufgabenstellung Ergebnisse 42 3.1 Bestandsaufnahme der pharmakokinetischen Datenbasis 42 3.1.1 Rohdaten und Daten des Extracts im Vergleich 42 3.1.2 Auswertung der Parameter in der Rohdatenbank und im Extract 42 3.2 Bestandsaufnahme des physikalischen Literaturarchivs 45 3.3 Geringe Standardisierung der Primärliteratur als Fehlerquelle 48 3.4 Transkription als Fehlerquelle 49 3.5 Interindividuelle Unterschiede bei der Dateneingabe 50 3.6 Auswertung der Fehler- und Fehlerquellenbestimmung 50 3.6.1 Berechnung der Umrechnungsfaktoren 50 3.6.2 Auswertung der Konsistenztests 51 3.6.3 Auswertung der Plausibilitätstests 53 3 3.6.4 Vergleich der Ergebnisse des Plausibilitätstests mit denen des Konistenztests 4. 55 3.7 Klassifizierung der Fehler 57 3.8 Methoden zur Sicherstellung der Datenkonsistenz 61 3.8.1 Doppelte Dateneingabe 61 3.8.2 "Vier-Augen-Prinzip" 61 3.8.3 Bestimmung von Integritätsbedingungen 61 3.8.4 check-Klauseln 62 3.8.5 Bestimmung von Datentypen von Datenfeldern 62 3.8.6 not null-Klausel 63 3.8.7 Anwendungslogik 63 3.8.8 Trigger 63 3.8.9 Protokoll über Datenänderungen 63 Diskussion 65 4.1 Pharmakokinetische Literatur 65 4.2 Transkription pharmakokinetischer Daten 66 4.3 Lösungsvorschläge zur Vermeidung von Sortierungsfehlern im physikalischen Literaturarchiv 67 Dateneingabe 68 4.4.1 Gewichtung der Fehler bei der Dateneingabe 68 4.4.2 Strukturierung der Dateneingabe 69 4.4.3 Änderungen am Eingabeformular 69 4.4.4 Identifizierung "unbekannter Literaturquellen" 71 4.4.5 Doppelte Dateneingabe 71 4.4.6 Qualitätskontrolle der Daten 72 4.5 Datenanalyse 73 4.6 Aktualisierung des Ausgabemoduls 73 4.7 Sicherung des Computersystems 74 4.8 Empfehlungen 74 4.4 5. Zusammenfassung 77 6. Literatur 79 7. Danksagung 93 8. Lebenslauf 94 4 Abkürzungsverzeichnis Aelim - eliminierte Menge eines Medikamentes mittels einer Nierenersatztherapie C - Konzentration CAPD - kontinuierliche ambulante Peritonealdialyse CAVH - kontinuierliche arterio-venöse Hämofiltration CCR - Kreatinin-Clearance Clnonren - nicht-renale Clearance Clrenal - renale Clearance Clss - Clearance bei steady-state Cltot - Gesamtkörper-Clearance Cltot/F - Gesamtkörper-Clearance nach oraler Dosierung Cmax - maximale Gleichgewichtskonzentration bei wiederholter Dosierung Cmin - minimale Gleichgewichtskonzentration bei wiederholter Dosierung Css - Konzentration bei steady-state CVHF - kontinuierliche venöse Hämofiltration cvvHD - kontinuierliche veno-venöse Hämodialyse D-EC50 - Dosis, bei der 50% der maximalen Wirkung eines Medikaments erzielt wird D-IC50 - Dosis, bei der 50% der maximalen Inhibition eines Medikaments erzielt wird Dim. - Dimension Dmax - maximale Dosis Dmin - minimale Dosis EC50 - Konzentration bei 50% der maximalen Wirkung eines Medikaments Emax - maximale Wirkung F - Bioverfügbarkeit fp - freier, nicht eiweißgebundener Plasmaanteil eines Medikaments FRelim - Eliminationsfraktion 5 Frühgeb. - Frühgeborene GFR - glomeruläre Filtrationsrate H - Hill-Koeffizient HD - Hämodialyse HF - Hämofiltration HP - Hämoperfusion i.v. - intravenös IC50 - Konzentration bei 50% der maximalen Inhibition eines Effektparameters IPD - Intermittierende Peritonealdialyse ka - Absorptionskonstante ke - Eliminationskonstante Km - Michaelis-Menten-Konstante, die der Substratkonzentration bei halbmaximaler Metabolisierungskapazität entspricht Leberinsuff. - Leberinsuffizienz MRTdyn - mittlere dynamische Verweilzeit MRTkin - mittlere kinetische Verweilzeit Neonat. - neonatal Pat.Zahl - Patientenzahl PB% - Plasmabindung einer Substanz RenFR - renale Fraktion RPF - renaler Plasmafluß Tabs1/2 - Absorptionshalbwertszeit Tdeep1/2 - Eliminationshalbwertszeit eines tiefen Kompartiments Tdistrib1/2 - Verteilungshalbwertszeit Tdyn1/2 - pharmakodynamische Halbwertszeit Tkin1/2 - pharmakokinetische Halbwertszeit Vd - Verteilungsvolumen Vd/F - Verteilungsvolumen nach oraler Applikation Vmax - maximale Metabolisierungskapazität Vss - Verteilungsvolumen bei steady-state Vss/F - Verteilungsvolumen bei steady state nach oraler Applikation 6 In Dankbarkeit meinen Eltern gewidmet 7 1. Einleitung 1.1 Allgemeiner Teil "Die Pharmakokinetik stellt einen Teilbereich der allgemeinen Pharmakologie dar. Sie beschreibt die Einflußnahme des Organismus auf das Pharmakon, wohingegen die Pharmakodynamik die Einflußnahme des Pharmakons auf den Organismus kennzeichnet" (Lauven PM 1995, Benet LZ 1995, 1984). Schon vor mehr als 400 Jahren wurde die direkte klinische Anwendbarkeit der Pharmakokinetik durch die Aussage des Arztes Paracelsus "Alle Dinge sind Gift und nichts ist ohne Gift; nur die Dosis macht´s, daß ein Ding kein Gift ist" vorgezeichnet. "Grundlage ist die Tatsache, daß zwischen der Plasmakonzentration und dem pharmakologischen Effekt eine bessere Korrelation besteht als zwischen der Dosis und dem Effekt" (Weiss M 1990). Veränderungen der Pharmakokinetik und somit auch der Plasmakonzentration eines Arznei-mittels sowie der Pharmakodynamik sind altersabhängig (Tsujimoto G 1989). Diese Veränderungen der Pharmakokinetik werden zum einen durch die Polypharmazie und Wirkstoffinteraktionen im Alter (Chutka DS et al. 1995, Sitar DS 1993, Terezhalmy GT 1989) und zum anderen durch altersphysiologische Veränderungen des Organismus bewirkt (Woodhouse KW 1994, Birnbaum LS 1991). Die Erhöhung der Prävalenz für Erkrankungen mit zunehmendem Alter machen eine Polypharmazie notwendig (Sitar DS 1993, Grymonpre RE 1991, Terezhalmy GT 1989). Altersphysiologische Veränderungen betreffen z.B. Absorption (Anstieg des pH-Wertes im Magen), Verteilung (Abnahme des Wassergehaltes und Zunahme des Fettgehaltes im Körper), Metabolisierung (Abnahme der Lebergröße, Abnahme des Blutflusses in der Leber) und Exkretion (Abnahme der glomerulären Filtration, Abnahme des renalen Plasmaflusses, Abnahme der tubulären Funktion) der Arzneimittel (Woodhouse KW 1994, Williams L 1992, Ishizaki T 1992, Birnbaum LS 1991, Fillastre JP 1990). Die wichtigste altersphysiologische Veränderung, ist die Abnahme der exkretorischen Kapazität der Niere (Turnheim K 1998, Crooks J 1981). Eine Vielzahl von altersabhängigen strukturellen und funktionellen Veränderungen wurden beschrieben (Meyer BR 1989): Zu den strukturellen Veränderungen zählen die renale Gewichtsabnahme, die Glomerulosklerose, die interstitielle Fibrose etc. (Muhlberg W et al. 1999, Niederstadt C 1997), die funktionellen Veränderungen betreffen den renalen Plasmafluß (RPF), die glomeruläre Filtrationsrate (GFR), den renalen Salz-WasserHaushalt und die renale Konzentrationsfähigkeit (Kokot F 1996, Epstein M 1979). Neben 8 diesen "Alterseffekten" sind auch die nephrotoxischen Effekte zu nennen, die ebenfalls Auswirkungen auf die Pharmakokinetik haben (Meyer BR 1989): Arzneimittel wie NSAR, Antibiotika, Diuretika, sowie chronische Erkrankungen wie arterieller Hypertonus, Diabetes mellitus, Arteriosklerose etc. zählen zu den potentiell nieren-schädigenden Faktoren (Muhlberg W et al. 1999, Zauderer B 1996). Es besteht eine große interindividuelle Variabilität sowohl bezüglich der altersphysiologischen Veränderungen, als auch bezüglich der Reaktionen auf exogene (Arzneimitteltherapie) und endogene Faktoren (chronische Erkrankungen). Generell läßt sich jedoch sagen, daß im Mittel Wirkstoff-konzentrationen im Alter höher sind, da die Exkretion verzögert ist (GundertRemy U 1995). Der altersphysiologische Clearance-Verlust beträgt etwa 1 ml/min/Jahr. In Wirklichkeit sind alle Patienten über 65 Jahre niereninsuffizient (Keller F et al. 1997). Somit ist es notwendig, die Arzneimitteldosis bei älteren Patienten anzupassen, indem man die altersabhängige Abnahme der Nierenfunktion berücksichtigt, damit der Patient ein Maximum an Nutzen (im Sinne von Vermeidung einer subtherapeutischen Unterdosierung) und ein Minimum an Nebenwirkungen (im Sinne von Vermeidung der toxischen Überdosierung) erfährt (Gundert-Remy U 1995, Keller F et al. 1996, Bakris GL 1993, Lowenthal 1987). Optimale therapeutische Dosierungen im Alter konnten bisher für die meisten Wirkstoffe noch nicht festgelegt werden (Turnheim K 1998). Zudem dürfte kaum ein Arzt in der Lage, alle Arzneimittel zu kennen, deren Elimination von der Nierenfunktion abhängig ist, und die somit einer Dosisanpassung bedürfen (Grams RR 1996). Für die individuelle Dosisanpassung wurde eine pharmakokinetische Datenbasis (NEPHARM) entwickelt, welche mit Hilfe computergestützter Algorithmen eine individuelle Dosisberech-nung durchführen kann. Ziel der vorliegenden Arbeit war es, die Fehler und Fehlerquellen innerhalb dieser pharmako-kinetischen Datenbasis (NEPHARM) mit Hilfe verschiedener statistischer Tests zu bestim-men, zu untersuchen und zu beseitigen. Desweiteren sollten Methoden zur Sicherung und Verbesserung der Qualität dieser pharmakokinetischen Datenbasis vorgeschlagen werden. Dazu mußte zum einen das physikalische Literaturarchiv als Informationsquelle aktualisiert und vervollständigt, die Struktur und der Weg der Datenakquisition und Datensynthese nachgezeichnet, und verschiedene Tests auf ihre Anwendbarkeit überprüft werden und zum anderen Veränderungen an der Datenbasis vorgenommen werden. 9 verschiedene strukturelle 1.1.1 Pharmakokinetik Die Pharmakokinetik ist eine angewandte Wissenschaft, die es dem Kliniker ermöglicht, Arzneimittel-Serumkonzentrationen und die damit assoziierten pharmakologischen Effekte vorherzusagen. Die Pharmakokinetik liefert Informationen für das bessere Verständnis der Pharmakodynamik und für die Dosisbestimmung, um eine Optimierung der Arzneimitteltherapie zu erzielen (Reynolds JR 1993, Reidenberg MM 1993, Benet LZ 1984). Die besondere Bedeutung liegt darin begründet, daß die Pharmakokinetik von etwa zweidrittel aller Wirkstoffe direkt oder indirekt abhängig von der Nierenfunktion ist (Kokot F 1996, Fillastre JP 1991). Im Folgenden wird auf die wichtigsten pharmakokinetischen Parameter eingegangen, um die altersabhängigen Veränderungen der Pharmakokinetik aufzuzeigen, die eine individuelle Dosisanpassung notwendig machen (Lindeman RD 1992, Yuen GJ 1990). Clearance (Cltot) Die Gesamtkörperclearance (Cltot) ist das Maß der Ausscheidungsgeschwindigkeit und setzt sich aus der Summe der renalen und der nicht-renalen Elimination zusammen. Cltot = Clren + Clnonren Die nicht-renale Clearance bleibt im Falle einer Niereninsuffizienz bei den meisten Medikamenten konstant, wohingegen die renale Clearance proportional zur KreatininClearance (CCR) abnimmt. Clren = a x CCR Daraus ergibt sich, daß mit eingeschränkter Nierenfunktion die Clearance mit unterschiedlicher Steilheit (a) der Regressionsgleichung abnimmt. Cltot = Clnonren + a x CCR Das Produkt aus Verteilungsvolumen (Vd) und Eliminationskonstante (ke) entspricht der Gesamtkörperclearance (Cltot). Cltot = Vd x ke Die Clearance nach oraler Dosierung kann nur bestimmt werden, wenn die Bioverfügbarkeit (F) eines Pharmakons bekannt ist (Benet LZ 1990). 10 Eliminationshalbwertszeit (Tkin1/2) Die Eliminationshalbwertszeit (Tkin1/2) ist der Kehrwert der Eliminationskonstanten (ke). Die ke = ln2/Tkin1/2 Tkin1/2 = ln2/ke Tkin1/2 = ln2 x Vd/Cltot Eliminationshalbwertszeit (Tkin1/2) kann sich demnach mit dem Verteilungsvolumen (Vd) oder der Clearance (Cltot) ändern (Benet LZ 1990). Eiweißbindung Nierenkrankheiten können mit verschiedenen Veränderungen der Eiweißbindung einhergehen. Akut entzündliche Nierenkrankheiten führen zu einer Vermehrung des Alpha-1 Serum-Glykoproteins und können so eine Abnahme des freien Plasmaanteils der basischen Medikamente bewirken (Piafsky 1980). Ausgeprägter bei Niereninsuffizienz sind jedoch die Veränderungen der Albuminbindung. Bei Niereninsuffizienz nimmt die Albuminbindung ab und es kommt zu einer Zunahme des freien Plasmaanteils (Viani A 1992, Keller F 1987). Als Ursache hierfür kommen eine verminderte Syntheseleistung für Bindungsproteine in der Leber, Kompetition, also Verdrängung der Pharmaka aus der Eiweißbindung durch endogene (Urämietoxine) und exogene Stoffe (andere Arzneimittel mit höherer Plasmabindung), sowie möglicherweise qualitative Veränderungen der Bin-dungsproteine in Frage (Heinemeyer G 1990). Gewebebindung Das Verteilungsvolumen ist abhängig von der Gewebebindung: Je stärker die Gewebebindung, desto größer das Verteilungsvolumen. Es gibt Hinweise darauf, daß bei Nieren-insuffizienz die Gewebebindung einiger Medikamente geringer wird. Man kann anneh-men, daß Albuminbindung Urämietoxine disku-tiert die werden, auch ebenso Gewebebindung führen können (Keller F 1987). 11 als zu Ursache einer einer verminderten Verminderung der Verteilungsvolumen (Vd) Das Verteilungsvolumen nimmt bei Niereninsuffizienz aufgrund der geringeren Gewebebindung ab. Neben diesem metabolischen Erklärungsmodell gibt es ein rein kinetisches Modell: Wenn die Eliminationshalbwertszeit bei Niereninsuffizienz zunimmt, nimmt die Eliminationskonstante ab, und das Verteilungsvolumen wird kleiner. Eine Abnahme des Verteilungsvolumens bei Niereninsuffizienz ist bereits aus kinetischen Simulationen bekannt (Gibaldi M 1972, Jusko WJ 1972). Sie ist aber auch empirisch bei zahlreichen Medikamenten zu beobachten (Gibaldi M 1972, Keller F 1982). Metabolismus Die Metaboliten lipophiler Pharmaka sind in der Regel hydrophiler als ihre Ausgangssubstanzen und damit nierengängiger. Sie werden aus diesem Grunde bei eingeschränkter Nierenfunktion retiniert (Turnheim K 1990). Durch Kumulation kann es zu unerwünschten Wirkungen, wenn diese kumulierten Metaboliten biologisch aktiv sind. Die Abnahme der exkretorischen Kapazität der Niere stellt die wichtigste pharmakokinetische Veränderung im Alter dar und erfordert eine individuelle Dosisanpassung, die mit Hilfe der Pharmakokinetik erreicht werden kann (Bjornsson TD 1997, Tsujimoto 1989). 1.1.2 Methoden der Dosisanpassung "Bei einer Variabilität der pharmakokinetischen Parameter von 30-40% in der Patientenpopulation ist die Individualisierung der Dosierung ein primäres Ziel" (Weiss M 1990). "Dosisanpassung ist die Kunst, bei unterschiedlicher Pharmakokinetik eine identische Pharmakodynamik zu erreichen." Dabei soll die Dosisanpassung dazu dienen, sowohl eine toxische Überdosierung als auch eine subtherapeutische Unterdosierung zu vermeiden (Keller F 1997). Hierzu stehen verschiedene Möglichkeiten zur Verfügung: 12 Dosishalbierung bei älteren Patienten In Anlehnung an die Cockcroft & Gault Formel wird generell empfohlen, die Dosis bei älteren Patienten zu halbieren (Cockcroft DW 1976). Kreatinin − Clearance = (140 − Alter ) ⋅ Körpergewicht 0,8 ⋅ Serum − Kreatinin Proportionalitätsregel nach Dettli "Die Dosis wird reduziert, oder das Intervall wird verlängert proportional zur verlängerten Halbwertszeit." (Dettli L 1976) Dosisindividuell Dosisnormal Halbwertszeit normal = ⋅ Intervallindividuell Intervall normal Halbwertszeitindividuell Halbierungsregel nach Kunin "Als Dosierungsintervall empfiehlt Kunin jeweils eine Halbwertszeit" (Kunin CM 1967). "Es kann dann nicht zu einer Kumulation kommen, wenn man jeweils nach einer Halbwertszeit die Hälfte der Startdosis nachgibt" (Keller F 1997): Dosisindividuell 0,5 ⋅ Startdosisnormal = Intervallindividuell Halbwertszeit individuell "Wenn es - wie in der Allgemeinpraxis darum geht, Nebenwirkungen zu vermeiden, wäre die Dettli-Regel vorzuziehen. Wenn es - wie in der Intensivmedizin - besonders darauf ankommt, eine maximale Wirkung zu sichern, ist die Kunin Regel zu bevorzugen" (Keller F 1997). A-priori-Methode (Dosierungsoptimierung ohne Messung des Blutspiegels) "Die a-priori-Methode geht davon aus, daß das pharmakokinetische Modell und die individuellen Parameter (bzw. Populationsmittelwerte) bekannt sind und liefert optimale Dosierungsschemata für den einzelnen Patienten (bzw. für den fiktiven "mittleren" Patienten), oder die Optimierung erfolgt für die Grundgesamtheit auf der Basis der Populationscharakteristik, d.h. unter Berücksichtigung der interindividuellen 13 Variabilität. Als klinische Parameter der Patienten kommen in erster Linie das Körpergewicht und der Serumkreatininwert in Frage" (Weiss M 1990). Adaptive Methoden Dosierungsoptimierung mit Kontrollmessung des Blutspiegels Die Individualisierung der Dosierung wird mit Hilfe von einer Rückkopplung von Informationen über die individuelle Pharmakokinetik durch Kontrollmessungen des Blutspiegels erzielt (Weiss M 1990). Bayesisches Verfahren "Hierbei werden die pharmakokinetischen Parameter als Zufallsgrößen betrachtet, und bei der Schätzung der individuellen Parameter fließen zusätzlich a-priori-Informationen über die Verteilung der Parameter in der Population ein. Die Informationen aus Blutspiegel-messungen mit Hilfe der a-posteriori-Verteilung der Parameter werden gefiltert, um Bayesische a-priori-Schätzwerte der individuellen Parameter zu erhalten, woraus dann individuelle Dosierungsschemata berechnet werden können" (Weiss M 1990, Jelliffe RW 1993). 1.1.3 Klinische Relevanz Effizienz, Sicherheit und Kosten sind die Faktoren, welche die Qualität einer pharmakologischen Therapie definieren (Dominguez-Gil A 1993). Um eine optimale Medikamententherapie zu erzielen, ist die Pharmakokinetik als Basiswissen unentbehrlich. Klinisch interessiert zwar zunächst nicht die Kinetik, sondern die Wirkung der Medikamente, jedoch ist das pharmakokinetische Teilwissen wesentlich besser untersucht als sein komplettierender Teil, die Pharmakodynamik, welche sich schwerer quantifizieren läßt und vorwiegend auf klinische Beobachtungen beruht (Keller F 1987). Die Vielzahl an biologischen Wirkungen nach Exposition mit chemischen Substanzen bzw. Arzneimitteln ist auf die Heterogenität der menschlichen Bevölkerung zurückzuführen (Clewell HJ 3rd 1996). Inter- und intraindividuelle Unterschiede in der Wirkstoffdisposition sind wichtige Faktoren, die zu Wirkstoffkonzentrationen führen, die außerhalb des therapeutischen Bereiches liegen, besonders weil viele klinisch nützliche Wirkstoffe eine enge therapeutische Breite haben (Meier-Abt PJ 1993, Lenert L 1989). 14 Zum einen können subtherapeutische zum anderen toxische Wirkstoffkonzentration erreicht werden (Greenblatt DJ 1992, Lamy PP 1982). Die Effizienz der Arzneimitteltherapie kann jedoch bedeutend verbessert werden, indem die Dosis mittels pharmakokinetischer Methoden individualisiert wird (Oellerich M 1992). Faktoren wie das Alter, das Gewicht, die Organfunktionen, der Krankheitsstatus und konkurrierende Wirkstoffe müssen dabei miteinbezogen werden (Riggs MM 1997, Reynolds JR 1993). Das pharmakokinetische Wissen ist dabei wichtig, um die maximale Effizienz mit minimalen Nebenwirkungen zu erreichen (Dominguez-Gil A 1993). Die Dosierungsvorschläge, die in der Klinik angewendet werden, sind meist komplex, enthalten unterschiedliche Verordnungsarten, Dosierungsgrößen, Dosierungsintervalle und Dosierungsdauer (Sebaldt RJ 1987). Vor allem für Pharmaka mit geringer therapeutischer Breite konnte nachgewiesen werden, daß die computergestützte Dosierung einer auf Intuition erfahrener Ärzte basierender Dosierung überlegen ist und das Überleben von Patienten signifikant verbessern kann (Evans WE et al. 1998, Burton ME et al. 1985). Daher wurden in den letzten 20 Jahren pharmakokinetische Programme für die klinische Anwendung entwickelt (Buffington DE 1993). Für die Dosisberechnung mit individualisierten pharmakokinetischen Parametern sind mittlerweile verschiedene Methoden verfügbar: z.B. das Bayesische Verfahren oder das Verfahren von Sawchuk und Zaske (Wakefield J 1996, Merle Y 1995, Jelliffe RW 1993, Buffington BE 1993, Zaske DE 1991). Weitere computergestützte Systeme sind in der Entwicklung, die schnelle und einfach zu handhabende individualisierte Berechnungen erlauben (Lenert LA 1992). Die Integration pharmakokinetischer Hilfs-programme für die individuelle Arzneimitteldosierung spart zum einen Zeit und verbessert zum anderen die Effizienz der Arzneimitteltherapie (Chrymko MM 1995). 1.1.4 Projekt WAIN (Wissensbasis für ein allgemeines Arzneimittelinformationssystem) WAIN war ein MEDWIS (medizinische Wissensbasen) -Projekt und wurde von den drei Partnern, Nephrologie Ulm, KIS Gießen und Intensiv Ulm getragen. Ziel ist die Erstellung eines Arzneimittelinformationssystems, das zur Information über Arzneimittel und zur Optimierung der Arzneimitteltherapie konsultiert werden kann, sowie die Erarbeitung einer Wissensbasis, die zur entscheidungsunterstützenden und entscheidungsüberwachenden 15 Datenverarbeitungsfunktionen genutzt werden kann, um aktiv zur Qualitätssicherung in der Pharmakotherapie beizutragen. Aufgabe von KIS Gießen war die standardisierte Repräsentation des Wissens (ArdenSyntax), die Entwicklung eines Wissensbank-Editors und die prototypische Anwendung innerhalb eines KIS. Die Nephrologie Ulm erarbeitet die pharmakokinetische Datenbasis NEPHARM und erstellt die Meta-Analyse der Literatur sowie Algorithmen zur Dosierung bei Nieren-insuffizienz. Die Intensiv Ulm trägt zur pharmakologischen Datenbasis bei, bereitet Methoden für die halbautomatische Wissensakquisition vor und entwickelt einen Prototypen für das Therapie-Monitoring in der Intensivmedizin. Ausgehend von intensivmedizinischer und nephrologischer Fragestellung wurde die Erweiterung des Projektes für die Nutzung aus allen Richtungen der Medizin vorbereitet. 1.1.4.1 Pharmakokinetische Datenbasis NEPHARM Das System besteht aus einem Eingabemodul, der eigentlichen Datenbasis und einem Ausgabemodul. Mit Hilfe des Eingabemoduls, welches auf einem kommerziellen Datenbank-system (Microsoft Access= ) basiert, werden Primärdaten, wie Werte für Parameter, Autorennamen, Titel, Journal, Jahr, Seitenzahlen in einer kontrollierten und strukturierten Form erfaßt. Für die pharmakokinetische Registrierung werden folgende Primärschlüssel verwendet: "Generic", "Literatur" und "Parameter". Die Daten werden aus Primärliteratur bezogen. Dabei wird auf die Primärliteratur in Form von Zitaten verwiesen, welche in dem physikalischen Literaturarchiv eingeordnet und gesammelt wird. Die Variabilität und Inhomogenität der verschiedenen Studien führt dazu, daß eine nichtstandardisierte Mischung aus primären, individuellen Daten und statistischen Schätzungen veröffentlicht wird. Um eine individuelle Schätzung vorzunehmen, muß man sich der Bayesischen Algorithmen bedienen, welche ihrerseits den Gebrauch von statistischem Wissen in Kombination mit Meta-Analyse erfordern. Das Ausgabemodul, welches wie das Eingabemodul auf einer kommerziellen Datenbank (Microsoft Access= ) basiert, liefert anschließend die Ergebnisse der Meta-Analyse, statistisch transformierte, standardisierte Werte mit Konfidenzintervallen. Ange-fangen bei der Namensliste können die dokumentierten Parameter, ergänzt durch Mittelwerte und statistische Schätzungen abgefragt werden. Es besteht zudem ein Verweis auf die Literaturquelle, um die Daten jederzeit verifizieren zu können (Keller F et al. 1998, Frankewitsch T et al. 1996). 16 1.2 Aufgabenstellung 1.2.1 Physikalisches Literaturarchiv Das physikalische Literaturarchiv für NEPHARM besteht zur Zeit aus etwa 3700 Originalartikeln und bildet die Quelle der in der Datenbank erfaßten Daten. Die Primärliteratur ist alphabetisch nach dem Erstautor abgeheftet, so daß jeder Datensatz, der in der Datenbank erfaßt wurde, mit Hilfe der Primärliteratur zurückverfolgt werden kann. Das physikalische Literaturarchiv wird ständig erweitert und aktualisiert. Die Komplettierung und Sortierung des physikalischen Literaturarchivs war der erste, vorbe-reitende Teil der Arbeit, um die Verifizierung der in die Datenbank aufgenommenen Daten-sätze zu ermöglichen. 1.2.2 Pharmakokinetische Datenbasis NEPHARM Die Fehler und Fehlerquellen innerhalb der pharmakokinetischen Datenbasis ausfindig zu machen und zu beseitigen war die wesentliche Aufgabe, um als Resultat eine möglichst gesicherte Qualität der Datenbasis zu erreichen. Für die Fehleranalyse standen folgende statistische Methoden zur Verfügung: • Konsistenztests • Plausibilitätstests. Um die Qualität der Daten innerhalb der Datenbank trotz permanenter Neueingaben beizubehalten, mußten Möglichkeiten zum Teil basierend auf den Ergebnissen der Fehlerquellen-suche, zum Teil basierend auf allgemeinen Grundlagen der Datenbanken gefunden werden, bisherige Fehler zu vermeiden. 17 2. Methoden 2.1. Physikalisches Literaturarchiv Das physikalische Literaturarchiv als Quelle aller in die Datenbasis eingegebenen Informationen bildet die Grundlage für die Verifizierung der Daten. Die Vollständigkeit der Literatursammlung muß garantiert werden, nicht nur weil die Datenverifizierung ermöglicht werden soll, sondern auch, weil das physikalische Literaturarchiv einer ständigen Aktualisierung unterliegt. Aus diesem Grunde mußte eine Literaturliste für die Bestandsaufnahme erstellt werden. Dies kann mit Hilfe der pharmakokinetischen Datenbasis erreicht werden, da sich die dort eingegebenen Datensätze auf die abgehefteten Artikel beziehen. Folgende Informationen wurden auf der Literaturliste dokumentiert: - Name des Erstautors - Titel - Name des Journals - Erscheinungsjahr - Band - Seitenangaben Die auf diese Weise erstellte Literaturliste mit den korrigierten Erstautorennamen ermöglichte die Bestandsaufnahme des physikalischen Literaturarchivs. Die Bestandsaufnahme wurde mit folgenden Fragestellungen durchgeführt: 1. Wie viele Artikel, deren Daten in die physikalische Datenbasis aufgenommen wurden fehlen bzw. wie viele sind vorhanden ? 2. In welcher Form sollen die fehlenden Artikel beschafft werden (Kopie der Primärliteratur aus der Bibliothek oder MEDLINE-Abstract) ? 3. Wie viele Artikel sind falsch abgeheftet worden ? 4. Wie kommt es zustande, daß Literatur falsch abgeheftet wurde ? 5. Welche Änderungen müssen vorgenommen werden, um derartige Sortierungsfehler zukünftig zu vermeiden ? 18 2.2 Beschaffung der Primärliteratur, Auswahl relevanter pharmakokinetischer Parameter und Transkription Die Primärliteratur wird zum größten Teil aus anerkannten medizinischen Zeitschriften bezogen. Die Zeitschriften werden gezielt auf Artikel mit pharmakokinetischen Daten zu unterschiedlichen Generika durchsucht. Entsprechende Artikel werden vollständig kopiert. Anschließend erfolgt die Auswahl der für die Dosisanpassung relevanten pharmakokinetischen Daten. Die drei wichtigsten pharmakokinetischen Parameter sind die Eliminationshalbwertszeit (Tkin1/2), das Verteilungsvolumen (Vd) und die Plasmabindung (PB%). Sind diese bei normaler Nierenfunktion und terminaler Niereninsuffizienz bekannt, dann lassen sich mit Hilfe der Pharmakokinetik klare Dosisempfehlungen aussprechen (Benet LZ 1990). Für gewöhnlich wird auch auf die Gesamtkörper-Clearance (Cltot) Wert gelegt, um möglichst viele weitere pharmakokinetischen Parameter für verschiedene Situationen berechnen zu können. Diese kann jedoch aus Tkin1/2 und Vd berechnet werden. Im Anschluß an die Auswahl aller brauchbaren pharmakokinetischen Daten aus der Literatur werden diese handschriftlich auf der ersten Seite der Primärliteratur fixiert und schließlich in die pharmakokinetische Datenbasis eingegeben. Man nennt den Prozeß der Dateneingabe in eine Datenbasis von einer Vorlage Transkription. 2.3 Pharmakokinetische Datenbasis 2.3.1 Aufbau Bei der Fehlersuche und Qualitätssicherung gilt es, die Struktur und die Wege der Datenakquisition und Datensynthese nachzuzeichnen. Die pharmakokinetische Datenbasis besteht aus dem Eingabemodul, der eigentlichen Datenbasis und dem Ausgabemodul. Mit Hilfe der Meta-Analyse erfolgt die Verarbeitung der im Eingabemodul erfaßten Daten aus der Primärliteratur. Die Ergebnisse der MetaAnalyse können im Ausgabemodul abgefragt werden. Abbildung 1 zeigt sowohl den Aufbau der pharmakokinetischen Datenbasis, als auch den Weg der Datengewinnung und -verarbeitung. 19 Literaturbeschaffung • Bibliothek (Kopie) • MEDLINE (Abstract) Auswahl der pharmakokinetischen Daten • Werte aus der Literatur • aus Schaubildern und Diagrammen berechnete Werte Eingabemodul (Rohdaten) Datenbasis RohdatenAusgabemodul Rohdaten synthetisierte Daten MetaAnalyse (synthetisierte Daten) Ausgabemodul Abb.1 Aufbau der pharmakokinetischen Datenbasis und Weg der Datengewinnung und -verarbeitung 2.3.1.1 Das Eingabemodul Alle relevanten pharmakokinetischen Daten und die zugehörigen Angaben zur Quellliteratur werden mittels des Eingabemoduls erfaßt. Dieser Teil des Systems kann auch als der anfälligste hinsichtlich der Fehlerentstehung angesehen werden. Daher erschien es notwendig, die Art und den Ablauf der Dateneingabe in das Eingabemodul zu untersuchen, um Hinweise auf mögliche Fehlerquellen zu erhalten. Abbildung 2 zeigt die Oberfläche, die beim Öffnen des Eingabemoduls erscheint. 20 Abb.2 Oberfläche des Eingangs in das Eingabemodul Da interindividuelle Unterschiede bezüglich der Dateneingabe trotz Strukturierung und Standardisierung des Eingabemoduls bestehen, ist jeder Daten eingebenden Person seit 1994 eine Leiste zugeordnet. Dabei kann anhand der Artikelnummer der seit 1994 eingegebenen Datensätze, auf die Daten eingebende Person rückgeschlossen werden, da jeder Person eine bestimmte Anfangszahl zugewiesen ist. So werden z.B. alle Artikel, die mit der Artikelnummer 8 beginnen und 6-stellig sind von Person A, die mit 9 beginnen und 6-stellig sind, von Person B etc. eingegeben. Dadurch wird es nicht nur möglich, Schwachstellen in der Dateneingabe zu erkennen, sie können auch einer bestimmten Person zugeordnet werden. Dies erweist sich als ein großer Vorteil, da so die Fehlereliminierung vereinfacht wird. Abbildung 3 zeigt die sich darstellende Oberfläche, wenn man ins Eingabemodul gelangt: 21 Abb.3 Oberfläche des Eingabemoduls Vorgehen bei der Dateneingabe Zunächst müssen der Autorname bzw. die Autorennamen, der Titel der Primärliteratur, das Journal, der Band und die Seitenzahlen eingegeben und die Eingabe bestätigt werden, um ins Haupteingabemenü zu gelangen. Anschließend erfolgt die Eingabe des GenerikumNamens, des Parameters, des Typs, des pharmakokinetischen Wertes, der Dimension und eventuell der Applikation, der Begleiterkrankungen, der Komedikation, eines Kommentars etc. Im Anschluß kann eine neue Eingabe zu dem selben Artikel oder aber die Eingabe eines neuen Artikels erfolgen. Es sei darauf hingewiesen, daß bei der Analyse der Rohdaten lediglich sämtliche Angaben zur Literaturquelle, der Generikum-Name, der Parameter, der Typ, der pharmakokinetische Wert (mit Abweichung, sofern an- und eingegeben) und die Dimension mit ihrem Umrechnungsfaktor berücksichtigt werden. Alle anderen Eingaben wie z.B. zur Applikation, zu Begleiterkrankungen, zur Komedikation, zum Kommentar etc. werden zwar im Ausdruck der Dateneingabe dokumentiert, in der Meta-Analyse der Daten jedoch vernachlässigt. 22 Folgende Besonderheiten müssen bei der Dateneingabe beachtet werden: Bei der Eingabe von Generikum-Namen, Parameter, Typ und Dimension kann zum einen aus einer Liste ausgewählt werden, zum anderen kann eine manuelle Eingabe erfolgen. Aufgrund der uneinheitlichen Maßsysteme ist die Eingabe neuer Einheiten oft unumgänglich. Diese müssen zur Homogenisierung der Daten konvertiert werden. Da derzeit kein derartiges automatisches Konversionssystem zur Verfügung steht, muß die Umrechnung der neuen Einheit auf die Haupteinheit eigenständig erfolgen. Dies kann gelegentlich die Dateneingeber überfordern. Aus Unwissenheit wird dann der Wert "1" als Umrechnungsfaktor eingegeben. Daneben können eine Vielzahl weiterer Fehler entstehen: • Tippfehler bei der Eingabe der Autorennamen z.B. Eingabe von "Groot De ANJA" statt "De Groot ANJA" oder Eingabe von "Nestor JL" statt "Lalak NJ" (Verwechslung von Vor- mit Nachnamen). Wird der Name vor allem des Erstautors falsch eingegeben, so hat dies zur Folge, daß die zugehörigen pharmakokinetischen Daten nicht mehr mittels des Literaturarchivs verifiziert werden können, da dann meist gleichzeitig eine falsche Sortierung der Primärliteratur vorliegt. • Tippfehler bei der Eingabe des Generikum-Namens z.B. Eingabe von "Satolol" statt "Sotalol". Wird der Generikum-Name falsch eingegeben, so wird er, sofern es sich nicht um einen neuen, noch nicht in der Datenbasis dokumentierten Wirkstoff handelt, als solches behandelt und neu in die Datenbasis aufgenommen und mit einer neuen Generikum-Nummer versehen. Nicht nur daß der neu dokumentierte Datensatz bei der Meta-Analyse aller zu einem Wirkstoff und Parameter dokumentierten Daten nicht mitberücksichtigt werden kann, es werden dadurch auch Daten zu einem Wirkstoff dokumentiert, den es eigentlich gar nicht gibt. Um eine weitere Standardisierung der pharmakokinetischen Datenbasis zu erzielen und derartige Rechtschreibfehler zu vermeiden, wird angestrebt den ATC code zu integrieren. 23 • Eingabefehler bezüglich des Parameters Der einzugebende Wert kann statt der Eliminationshalbwertszeit (Tkin1/2) z.B. dem Verteilungsvolumen (Vd) zugeordnet werden. • Eingabefehler bezüglich des Typs Der einzugebende Wert kann z.B. statt der "normalen" Eliminationshalbwertszeit der Eliminationshalbwertszeit bei "Anurie" zugeordnet werden. • Tippfehler bei der Eingabe des pharmakokinetischen Wertes Ein falscher Wert kann eingegeben werden; z.B. "1,0" statt "0,1". • Eingabefehler bezüglich der Dimension z.B. Eingabe von "l/min" statt "ml/min". Zum einen kann einem Wert die falsche Dimension aus der Liste zugewiesen werden, zum anderen kann wie schon oben beschrieben, bei der Eingabe einer neuen Dimension eine falsche Berechnung und / oder Eingabe des Umrechnungsfaktors erfolgen. Für die Bestätigung, Belegung und Quantifizierung der aus den Überlegungen resultierenden Reihe an Fehlerquellen, wie sie oben dargestellt sind, war die Suche nach anerkannten Methoden erforderlich. Hierfür konnten verschiedene adäquate statistische Tests in Betracht gezogen werden: Zum einen Plausibilitätstests und zum anderen Konsistenztests. Mittels dieser beiden statistischen Methoden können die in die Datenbasis integrierten Werte auf ihre Plausibilität und Konsistenz überprüft werden. Durch eine anschließende Überprüfung aller nicht plausibler und / oder nicht konsistenter Werte kann in den meisten Fällen gezielt auf die Fehlerquelle zurückgeschlossen werden. Für die Fehleranalyse, aber auch für die Meta-Analyse von Bedeutung ist die Tatsache, daß oft kein Wert für die Abweichung, keine Wertart (Median, Mittelwert, Minimum, Maximum), keine Abweichungsart (Standardabweichung, Variationskoeffizient, etc.) und auch keine Patientenzahl dokumentiert wird. Dies liegt entweder daran, daß keine Angaben hierzu in der Literatur zu finden sind, oder aber sie werden nicht in dieser Form in die Datenbasis übernommen. 24 2.3.1.2 Meta-Analyse Um eine weitestgehende Homogenität der Daten aus dem Eingabemodul zu erhalten, ist es notwendig, verschiedene statistische Methoden kombiniert anzuwenden. Die Schätzungen, die man dabei erhält, sind an die Verteilung jeder Menge angepaßt. Der hierfür verwendete Algorithmus ist in Abbildung 4 dargestellt. Abb.4 Algorithmus für die Analyse veröffentlichter pharmakokinetischer Daten aus der Literatur (Zellner D et al. 1996) 2.3.1.3 Das Ausgabemodul (Extract) Das Ausgabemodul (Extract) präsentiert das Ergebnis der Meta-Analyse (Abbildung 5). 25 Abb.5 Oberfläche des Ausgabemoduls Da mittels der Meta-Analyse sowohl eine Homogenität der Daten hergestellt werden soll, als auch mögliche Fehler eliminiert werden sollen, und ferner keine Änderungen innerhalb des Ausgabemoduls vorgenommen werden können, ist davon auszugehen, daß das Extract am wenigsten anfällig hinsichtlich der Fehlerentstehung ist. Die Verknüpfung mit der zu den Rohdaten gehörenden Quellliteratur ermöglicht bei Bedarf die Überprüfung der Rohdaten in Form eines Vergleichs mit der Primärliteratur. Es ist sogar möglich, sowohl eine Liste mit allen notwendigen Informationen zur Quellliteratur (Abbildung 6), als auch das Ergebnis der Extract-Abfrage (Abbildung 7) auszudrucken. 26 Abb.6 Ausdruck der Informationen zur Quellliteratur Abb.7 Ausdruck des Ergebnisses der Extract-Abfrage 27 Es ist möglich, das Extract als Hilfe für die Fehlerquellensuche zu verwenden. Erfolgt eine Abfrage zu einem Parameter zu einem bestimmten Wirkstoff, so erhält man pro Typ nur einen Wert, der mittels der Meta-Analyse aus vielen Einzelwerten errechnet worden ist; die Anzahl der Einzelwerte zu einem bestimmten Parameter sind immer mit angegeben. Es ist möglich, das Ergebnis der Meta-Analyse auf Konsistenz zu überprüfen. Eine Tabelle zu allen verfügbaren Daten aus dem Extract mußte hierzu erstellt werden. Als Überprüfungs-Instrument wurde zuerst eine Tabelle mit folgenden Spalten entworfen: • Generikum-Name • Medikamenten-Nummer • Parameter • Typ • Wert • Dimension Die Generika-Namen aus dem Extract wurden in die Tabelle kopiert. Anschließend konnte eine Bestandsaufnahme der errechneten Parameter im Extract erfolgen. Die dabei erhaltenen Daten wurden in die Tabelle eingetragen. 2.3.2 Methoden zur Fehler- und Fehlerquellensuche Zur Durchführung der Fehler- und Fehlerquellensuche waren unterschiedliche Methoden notwendig: 1. Überprüfung der Umrechnungsfaktoren 2. Konsistenztests 3. Plausibilitätstests 4. Vergleich der Ergebnisse der Konsistenztests mit denen des Plausibilitätstests 28 2.3.3.1 Überprüfung der Umrechnungsfaktoren Da zur Zeit kein automatisches Konversionssystem für Dimensionen zur Verfügung steht, muß die Berechnung der Umrechnungsfaktoren eigenständig erfolgen. Für die Berechnung bzw. Auswertung der Umrechnungsfaktoren war es notwendig, eine Tabelle zu erstellen. Die Tabelle wies folgende Spalten auf: • Parameter-Nummer • Parameter • Dimension • Umrechnungsfaktor (bisher) • Umrechnungsfaktor (korrigiert). 2.3.3.1 Konsistenztests Definition: Der Begriff "Konsistenz" ist eine Bezeichnung für eine Eigenschaft einer Schätzfunktion. Diese ist gegeben, wenn ihre Schätzwerte bei wachsender Beobachtungszahl mit gegen Null strebender Wahrscheinlichkeit vom wahren Wert abweichen (Brockhaus). Ein Konsistenztest überprüft somit, ob ein Schätzwert vom wahren Wert abweicht. Mit Hilfe bekannter pharmakokinetischer Formeln können pharmakokinetische Parameter errechnet werden. Neu ist die Verwendung der bekannten pharmakokinetischen Formeln in diesem Zusammenhang: Ein Schätzwert (Wert aus dem Extract) wird dann als konsistent klassifiziert, wenn keine erhebliche Abweichung (CV ≤ 100%) vom errechneten Wert vorliegt. Für die Konsistenzprüfung wurden folgende pharmakokinetische Formeln verwendet: 1) Tkin1 / 2 normal ≈ Tkin1 / 2 HD 2) Cltot = ln 2 ⋅ Vd Tkin1 / 2 29 Zur Erleichterung Berechnung von Cltot für folgende Typen: a) normal b) Anurie c) sonstiges 3) Cltot / F = ln 2 ⋅ 4) Vd / F Tkin1 / 2 Vd Cltot / F = ln 2 ⋅ F Tkin1 / 2 oder Vd / F Cltot = ln 2 ⋅ Tkin1 / 2 F Vd F 5) Vd / F = 6) Cltot / F = Cltot F und Vss F 7) Vss / F = 8) Vd Cltot = Vd / F Cltot / F 9) Clrenal ≈ Cltotnormal − Cltot Anurie 10) Tkin1 / 2 * fp Vd * = ⋅ Tkin1 / 2 fp * Vd 11) Vd ↓ Tkin1 / 2 Anurie (1 − PB %) normal Vd Anurie = ⋅ Tkin1 / 2 normal (1 − PB %) Anurie Vd normal Tkin1 / 2 ↑ ke = Cltot / Vd 30 12) ke = ln 2 / Tkin1 / 2 13) MRTkin = 14) MRTkin ≈ 15) Cltot = Vss / MRTkin Tkin1 / 2 Vss ⋅ ln 2 Vd Tkin1 / 2 ln 2 Vss = Cltot ⋅ MRTkin V max⋅ Vd Km 16) Cltot = 17) Tkin1 / 2 = ln 2 ⋅ 18) Re nFR = 19) Re nFR = 1 − 20) Re nFR = Clrenal Tkin1 / 2 ⋅ ln 2 Vd 21) Re nFR ≈ Cltot normal − Cltot Anurie Cltot normal 22) Km + c V max Clrenal Cltot Tkin1 / 2 normal Tkin1 / 2 Anurie Cltot normal Cltot Anurie = (1 − PB %) normal (1 − PB %) Anurie 31 PB% ↓ Cltot ↑ Durchführung der Konsistenztests Die Durchführung der Konsistenztests basierend auf dem Ausgabemodul (Extract) erwies sich deshalb als sinnvoller, weil es sich beim Extract zum einen nicht um Einzelwerte wie z.B. im Eingabemodul und in der Rohdatenbasis, sondern um eine Schätzung aus mehreren Werten handelt, und zum anderen bedeutend mehr Parameter im Vergleich zum Eingabemodul dokumentiert sind, da die Werte aus unterschiedlichen Literaturquellen verarbeitet worden sind. Somit eröffnete sich die Möglichkeit, bedeutend mehr Konsistenztests durchführen zu können als mit Hilfe der Werte aus dem Eingabemodul. Zur Durchführung der Konsistenztests mußten alle Generika gesucht werden, für welche die Parameter der jeweiligen pharmakokinetischen Formel gleichzeitig dokumentiert sind. Dies erfolgte mit Hilfe der hierfür erstellten, in Kapitel 2.3.1.3 beschriebenen Liste aus dem Extract. Für die Durchführung und Auswertung war der Entwurf einer Excel-Tabelle notwendig. Die Tabelle wies folgende Spalten auf: • Generikum • Medikamenten-Nummer • Parameter • Typ • Wert im Extract • Dimension • mit Hilfe der pharmakokinetischen Formeln berechneter Wert • relative Abweichung. Die im Extract dokumentierten Werte wurden in die entworfene Excel-Tabelle übertragen. Eine maximal tolerable relative Abweichung von 100% wurde festgelegt, die jeweiligen pharmakokinetischen Werte mit Hilfe der aufgestellten pharmakokinetischen Formeln berechnet, ebenso die relative Abweichung des errechneten Wertes von dem dokumentierten Wert. Das Ergebnis wurde in die Excel-Tabelle eingetragen. Von einer Konsistenz der Daten wurde ausgegangen, wenn der Variationskoeffizient (CV) der jeweiligen Schätzwerte kleiner / gleich 100% war (CV = SD/Wert). Anschließend wurden alle Generika markiert, deren Werte eine relative Abweichung größer als 100% aufwiesen. Zur Auswertung wurden alle Generika ausgezählt, für die die Werte, notwendig für die 32 Durchführung des jeweiligen Konsistenztests, gleichzeitig im Extract dokumentiert waren. Zusätzlich mußten alle markierten Generika, deren Werte sich in den Konsistenztests als nicht konsistent erwiesen haben, ausgezählt werden. 2.3.3.2 Plausibilitätstest Definition: Plausibilitätstests dienen dazu, Ausreißer in einer Wertereihe zu detektieren. Dabei werden (im Gegensatz zu Konsistenztests, bei denen Schätzwerte mit wahren Werten verglichen werden) alle Werte einer Wertereihe miteinander verglichen und eine maximal tolerable Abweichung festgelegt. Von Plausibilität wird ausgegangen, wenn die Werte untereinander um nicht mehr als die festgelegte maximale Abweichung voneinander abweichen. In den Test wurden alle Rohdaten aus dem Eingabemodul einbezogen. Es wurde zunächst eine Tabelle mit folgenden Spalten entworfen: • Medikamenten-Nummer • Generikum • Parameter-Nummer • Parameter • Typ-Nummer • Typ • Dimension • Anzahl der untersuchten Datensätze (n) • Mittelwert • Median • Minimum • Maximum • Standardabweichung • Variationskoeffizient. 33 Durchführung des Plausibilitätstests In der Tabelle wurden alle Generika dokumentiert, deren Datensätze einen Variationskoeffizienten CV ≤ 80% oder eine schiefe Verteilung S größer 3 aufwiesen, und somit als nicht plausibel anzusehen waren. Bei der Untersuchung der Datensätze standen folgende Fragestellungen im Vordergrund: • Wie viele Datensätze mit "unbekanntem" Autor / Titel / Journal gibt es insgesamt in der Rohdatenbasis ? • Bei wie vielen der untersuchten Datensätze ist der Autor/Titel/Journal "unbekannt" ? • Wie verhält es sich mit der Häufigkeitsverteilung der nicht plausiblen Daten bezogen auf die Parameter ? • Welche Fehler haben zu den nicht plausiblen Daten geführt ? • Was ergibt die Kombination der Ergebnisse der Konsistenztests mit denen des Plausibilitätstests ? 2.4 Fehlersuche und Fehlerquellenbestimmung Nach der Durchführung der verschiedenen statistischen Verfahren zur Fehler- und Fehlerquellensuche, mußten die Fehler und Fehlerquellen näher bestimmt und klassifiziert werden. Dazu war die Programmierung eines Rohdaten-Ausgabemoduls notwendig. Mit Hilfe der Angaben aus dem Plausibilitätstest, der Medikamenten-Nummer, der Parameter-Nummer und der Typ-Nummer sollten alle Rohdaten zusammen mit Informationen sowohl zur jeweiligen Primärliteratur, als auch zur Eingabenummer abrufbar sein. Also wurde ein spezielles Formular entworfen, in welches die o.g. Angaben eingegeben werden konnten. Nach der Eingabe von Medikamenten-Nummer, Parameter-Nummer und Typ-Nummer sollten folgende Informationen abgerufen werden können: • Generikum-Name • Parameter • Typ • Wert 34 • Dimension • Eingabenummer • Autor • Titel Die Angaben zur Literaturquelle waren deshalb notwendig, um einen direkten Vergleich zwischen den Angaben in der Literatur mit denen in der Datenbasis vornehmen zu können. Die Kenntnis über die Eingabe sollte bei etwaigen Abweichungen der Angaben der Primärliteratur von denen der Datenbasis schnelle Korrekturen im Eingabemodul ermöglichen. Abbildung 8 zeigt den Weg der Informationsgewinnung und die Funktion des Rohdatenausgabemoduls. Eingabe von • Medikamenten-Nummer • Parameter-Nummer • Typ-Nummer Rohdaten-Ausgabemodul Informationen über Literaturquelle Datensatz Fehlersuche EingabeNummer FehlerKorrektur im Eingabemodul Abb.8 Weg der Informationsgewinnung und Funktion des Rohdaten-Ausgabemoduls Abbildung 9 zeigt eine Darstellung der Oberfläche des Rohdaten-Ausgabemoduls. 35 Abb. 9 Oberfläche des Formulars für die Rohdatenabfrage Um den Vergleich zwischen Primärliteratur und Datensatz zu erleichtern, ist es möglich, alle Angaben auszudrucken (Abbildung 10). Name: Acebutolol Parameter: Tkin1/2 Type: Normal Von Krahe T Pharmakokinetik von Gadolinium-DTPA bei dialysepflichtiger chronischen Niereninsuffizienz Wert: 3,57 Dim: hours DimNr: 1 UmRchFktr:1 Unbekannt Unbekannt Wert: 2,7 Dim: hours DimNr: 1 UmRchFktr:1 Unbekannt Unbekannt Wert: 7 Dim: hours DimNr: 1 UmRchFktr:1 Unbekannt Unbekannt Wert: 7 Dim: hours DimNr: 1 UmRchFktr:1 Unbekannt Unbekannt Wert: 9 Dim: hours DimNr: 1 UmRchFktr:1 Rooney M Acebutolol overdose treated with hemodialysis and extracorporeal membrane oxygenation Wert: 3 Dim: hours DimNr: 1 UmRchFktr:1 Rooney M Acebutolol overdose treated with hemodialysis and extracorporeal membrane oxygenation Wert: 8 Dim: hours DimNr: 1 UmRchFktr:1 Singh BN Acebutolol: A review of ist pharmacology, pharmacokinetics, clinical uses, and adverse effects Wert: 2,7 Dim: hours DimNr: 1 UmRchFktr:1 Abb. 10 Ausdruck des Ergebnisses des Rohdaten-Ausgabemoduls (Hinweis: Die Datensätze mit „unbekannter“ Literaturquelle sind Datensätze, die vor 1994 in die unstrukturierte Datenbasis eingegeben worden sind.) 36 Durchführung der Fehler- und Fehlerquellenbestimmung Zunächst mußten alle nicht plausiblen Datensätze aus dem Plausibilitätstest überprüft werden. Dazu wurden alle notwendigen Angaben in das Rohdatenausgabemodul eingegeben und alle Ergebnisse ausgedruckt. Anschließend konnte die Fehlersuche und Fehlerquellenbestimmung durch Vergleich der Datensätze mit den Daten aus der Primärliteratur im physikalischen Literaturarchiv erfolgen. Im Vorfeld wurde eine Klassifizierung der Fehler vorgenommen, um die spätere Auswertung der Ergebnisse zu erleichtern: • falscher Wert Stimmt der Wert aus dem untersuchten Datensatz nicht mit dem in der Primärliteratur überein, so wird dieser Fehler als "falscher Wert" klassifiziert. • Wert nicht plausibel Stimmt der Wert aus dem untersuchten Datensatz zwar mit der Literatur überein, ist er aber im Vergleich zu den anderen dokumentierten Werten nicht plausibel, so wird dieser mögliche Fehler als "Wert nicht plausibel" klassifiziert. • falsche Dimension Ist im Datensatz eine andere Dimension dokumentiert als in der Primärliteratur, bei ansonsten gleichem Wert, so wird der Fehler als "falsche Dimension" klassifiziert. • falscher Parameter Ist ein Wert aus der Literatur einem falschen Parameter in der Datenbasis zugeordnet worden, so wird dieser Fehler als "falscher Parameter" klassifiziert. • falscher Typ Wurde ein Wert aus der Primärliteratur einem falschen Typ zugeordnet worden, so wird dieser Fehler als "falscher Typ" klassifiziert. 37 • nicht aus der Primärliteratur entnehmbar Ist der in der Datenbasis dokumentierte Wert nicht aus der Primärliteratur entnehmbar, so wird dies als "nicht aus der Literatur entnehmbar" klassifiziert. Hierbei sei jedoch angemerkt, daß jene Werte einerseits aus Graphiken bestimmt worden sind, andererseits nur in der kompletten Literatur dokumentiert sind, nicht aber im Abstract, welches mit dem Ausdruck des Datensatzes abgeheftet wurde. • unterschiedliche Applikation Alle in der pharmakokinetischen Datenbasis dokumentierten Parameter unterstellen eine intravenöse Applikation der unterschiedlichen Generika. Wurden die Daten in der Primärliteratur bei oraler Applikation ermittelt, und diese in die pharmakokinetische Datenbasis nicht als Vd/F bzw. Cltot/F eingegeben, so wurden diese Werte als nicht plausibel angesehen und als Fehler aufgrund „unterschiedlicher Applikation“ klassifiziert. • unterschiedliche Metabolisierung Wurde zwar in der Literatur, nicht aber in der pharmakokinetischen Datenbasis zwischen schnellen und langsamen Metabolisierern unterschieden, so kann dies auch zu nicht plausiblen Daten geführt haben und wird als Fehler aufgrund „unterschiedlicher Metabolisierung“ klassifiziert. • Kombinationstherapie Wurde übersehen, daß eine Kombinationstherapie in der Studie vorlag, so wurde dies als Fehler aufgrund "Kombinationstherapie" klassifiziert. Selbst wenn die meisten Fehler in der pharmakokinetischen Datenbasis korrigiert werden, besteht weiterhin das Bestreben, die Fehlerquote auch zukünftig so gering wie möglich zu halten, wenn nicht sogar zu verringern. Dazu muß die Konsistenz der Daten sichergestellt werden. Dies kann mit Hilfe verschiedener Methoden aus dem Fachgebiet der Informatik erfolgen, die im folgenden Kapitel vorgestellt werden. 38 2.5 Grundlagen zu Datenbanken Möglichkeiten zur Qualitätssicherung der Daten in einem Datenbanksystem Relationale Datenbanksysteme sind kommerziell am weitesten verbreitet und bestechen durch Einfachheit und Exaktheit. Sie unterstützen ein verhältnismäßig einfaches Datenstrukturierungsmodell und der Zugang zu ihnen über Datenbanksprachen (SQLNorm) ist weitestgehend standardisiert. Konzeptionell ist eine relationale Datenbank eine Ansammlung von Tabellen. Hinter den Tabellen steht meistens die Idee einer Relation, ein grundlegender Begriff, der dem gesamten Ansatz den Namen gegeben hat. Eine Relation kann anschaulich als Tabelle verstanden werden: Die Attribute des Relationenschemas bilden die Spaltenüberschriften der Tabelle, die Tupel sind die verschiedenen Zeilen, und die Einträge in den verschiedenen Tabellenpositionen gehören zu den jeweiligen Wertebereichen (Heuer A und Saake G 2000). Das relationale Datenbanksystem zählt zu den einfachen Datenstrukturierungsmodellen. Dennoch ist es sinnvoll, bestimmte Konsistenzforderungen an gespeicherte Datenbanken zu stellen, die vom System gewährleistet werden müssen. Folgende Mechanismen können hierzu verwendet werden: 1) Bestimmung von Integritätsbedingungen Einfache Integritätsbedingungen sind im relationalen Datenbankmodell fest integriert, es können jedoch zusätzliche Integritätsbedingungen bestimmt werden. Es gibt lokale Integritätsbedingungen, die lokal für eine Tabelle gewährleistet sein müssen (Schlüsselintegrität), und es gibt globale Integritätsbedingungen, die über den Bereich einer Tabelle hinausreichen (referentielle Integrität). • Schlüsselintegrität: Es können Schlüssel für eine Relation (weitere Einträge in einer Tabelle nach einem in der ersten Zeile fixierten Schema) angegeben werden, z.B. dürfen zwei gleiche Werte in einer Spalte nicht auftauchen. • Referentielle Integrität: Es können Fremdschlüssel angegeben werden, d.h. ein Schlüssel taucht in einem anderen Relationsschema auf. 39 • Typenintegrität: Es besteht die Möglichkeit, einen Wertebereich zu Attributen anzugeben. 2) check-Klauseln Mit Hilfe der check-Klauseln können lokale Integritätsbedingungen innerhalb der zu definierenden Wertebereiche, Attribute und Relationenschemata angegeben werden. Mit check-Klauseln können Prädikate angegeben werden, die sich auf die gültigen Werte innerhalb eines Wertebereiches beziehen. 3) Bestimmung von Datentypen für Felder Datentypen für bestimmte Felder stellen sicher, daß z.B. in ein Datumsfeld auch ein Datum eingetragen wird. 4) not null-Klausel Mit der not null-Klausel können in bestimmten Spalten Null-Werte als Attributwerte ausgeschlossen werden. "null" repräsentiert die Bedeutung "Wert unbekannt". 5) Anwendungslogik Eine in eine Datenbankanwendung zusätzlich integrierte Logik kann die Datenbank in einem konsistenten Zustand halten. Z.B. können mathematische Formeln integriert werden. 6) Trigger Trigger sind Integritätsregeln, die immer eine Integritätsverletzung anzeigen. (Heuer A und Saake G 2000, Dadam P 1999, Heuer A 1997, Biskup J 1995) Um diese Fähigkeiten von Datenbanksystemen nutzen zu können, ist in erster Linie ein guter Datenbankentwurf notwendig. Dieser logische Entwurf entspricht dem DetailEntwurf von Algorithmen im allgemeinen Software-Entwurf. Das Ergebnis des logischen Datenbank-entwurfes ist das logische Schema, z.B. eine Sammlung von Relationen (Heuer A und Saake G 2000). 40 Wird die Qualität der Daten nur vom Menschen durch eine Durchsicht sichergestellt, kann man das System ein Protokoll über die Datenänderung führen lassen, das dann durch eine Durchsicht kontrolliert wird (Dadam P 1999). Desweiteren können folgende Methoden angewendet werden: • Doppelte Dateneingabe Die Daten werden bei dieser Methode zweimal eingegeben. Anschließend wird die erste Eingabe mit der zweiten verglichen. Bestehen Unterschiede, so werden die Daten sooft eingegeben, bis eine 100%-ige Übereinstimmung besteht oder aber der Wert wird mit Hilfe der Original-Datenquelle überprüft und korrigiert (Cummings J 1994, Gibson D et al. 1994, Reynolds-Haertle RA 1992). • "Vier-Augen-Prinzip" Hierzu werden zwei Personen benötigt, wobei die erste Person die Daten eingibt, die zweite die eingegebenen Daten kontrolliert und bei vollständiger Richtigkeit freigibt (aus dem Faltblatt des Bundesamtes für Sicherheit in der Informationstechnik, Referat V1, Bonn). Es mußte überprüft werden, welche Methoden schon direkt vom Datenbanksystem unterstützt werden und welche noch zusätzlich integriert werden könnten. 41 3. Ergebnisse 3.1 Bestandsaufnahme der pharmakokinetischen Datenbasis 3.1.1 Rohdaten und Daten des Extracts im Vergleich Für die Bestandsaufnahme der pharmakokinetischen Datenbasis mußten sowohl die Rohdaten, als auch die Daten des Extracts betrachtet werden. In Tabelle 1 wird der Datenbestand vergleichend dargestellt. Unterschiede bezüglich der Anzahl der Daten liegen darin begründet, daß das Extract Schätzungen aus der Vielzahl an Rohdaten liefert. Jedoch müßten die Zahl der Generika, der Dimensionen, der Parameter und der Typen in der Rohdatenbank und im Extract gleich sein. Man kann daraus schließen, daß eine Aktualisierung des Ausgabemoduls erforderlich ist. Tab.1 Vergleich des Datenbestandes zwischen Rohdatenbank und Extract (Stand: Januar 1999) Rohdatenbank Extract Data / ExtractData 23169 8994 Generika 2069 1626 Dimensionen 177 172 Parameter 36 34 Typ 30 29 3.1.2 Auswertung der Parameter in der Rohdatenbank und im Extract Um einen Überblick über die Häufigkeit dokumentierter Parameter in der Rohdatenbank und im Extract zu erhalten, mußte eine Auswertung beider Module erfolgen. Die Ergebnisse sind in Tabelle 2, das Ergebnis des Extracts zusätzlich in Form von Diagrammen in den Abbildungen 11 und 12 dargestellt. 42 Tab.2 Auswertung der Parameter aus der Rohdatenbank und des Extracts Parameter insgesamt Tkin1/2 Vd Vd/F Cltot Cltot/F Clrenal Aelim PB% FRelim RenFR F Cmin Cmax Km Vmax ka MRTkin Css EC50 H Dmax Dmin ke Tdyn1/2 Vss Emax IC50 Vss/F Clss MRTdyn Tabs1/2 Tdeep1/2 D-EC50 D-IC50 Rohdatenbasis 23169 7601 2741 335 3540 628 529 24 1378 1476 1290 1323 193 454 42 39 40 316 9 261 64 21 18 10 148 541 20 16 43 2 3 14 44 3 3 Extract 8994 2714 1045 165 1148 265 203 16 944 612 588 393 33 142 17 21 13 162 1 123 31 20 18 8 60 203 9 9 21 1 1 4 3 1 0 43 Vmax ka MRTkin Tdeep1/2 D-EC50 D-IC50 Km Cmax Cmin F RenFR Frelim PB% Aelim Clrenal Cltot/F Cltot Vd/F Vd Tkin1/2 10 00 0 9 00 0 8 00 0 7 00 0 6 00 0 5 00 0 4 00 0 3 00 0 2 00 0 1 00 0 0 Parameter insgesamt Anzahl der Parameter Au s w e rtu n g d e r P a ra m e te r a u s d e m Au s g a b e m o d u l (E x tra c t) T e il 1 P ar am ete r A u s w e r t u n g d e r P a r a m e t e r a u s d e m A u s g a b e m o d u l ( E x t r a c t ) T e il 2 10000 9000 Anzahl der Parameter 8000 7000 6000 5000 4000 3000 2000 1000 Tabs1/2 MRTdyn Clss Vss/F IC50 Emax Vss Tdyn1/2 ke Dmin Dmax H EC50 Css Parameter insgesamt 0 P a ra m e te r Abb.11 und 12 Graphische Darstellung der Häufigkeit der unterschiedlichen pharmakokinetischen Parameter im Ausgabemodul Man erkennt, besonders in der graphischen Darstellung, daß die drei für die individuelle Dosisanpassung wichtigsten pharmakokinetischen Parameter, die Eliminationshalbwertszeit, das Verteilungsvolumen und die totale Clearance am häufigsten erfaßt sind. 44 3.2 Bestandsaufnahme des physikalischen Literaturarchivs Für die Bestandsaufnahme des physikalischen Literaturarchivs war es notwendig, eine Literaturliste zu erstellen. Bei der Erstellung dieser Literaturliste mit Hilfe der pharmakokinetischen Datenbasis fiel auf, daß einige Autorennamen falsch eingegeben waren. Besonders die falsche Eingabe des Erstautorennamens hat zur Folge, daß zum einen die Literatur falsch abgeheftet werden kann und somit das Nachvollziehen des in die pharmakokinetische Datenbasis integrierten, sich auf die Literatur beziehenden Datensatzes nicht mehr möglich ist. Beispielsweise war der Name des Erstautors "Le Corre P" als "Corre Le P" eingegeben und somit auch falsch im physikalischen Literaturarchiv abgeheftet. Aus diesem Grunde mußten zunächst alle Eingabefehler bezüglich der Autorennamen berichtigt werden. Insgesamt handelte es sich um 30 falsch eingegebene Autorennamen, wobei lediglich die Erstautoren mittels Durchsicht der "Autoren"-Tabelle in der Rohdatenbank auf Orthographie überprüft wurden, da nur jene relevant für die Vollständigkeit und Korrektheit des physikalischen Literaturarchivs sind. Bei einer Gesamtzahl von 3724 entspricht dies etwa 1%. Laut der pharmakokinetischen Datenbasis wurden pharmakokinetische Daten aus 3724 Artikeln bezogen. Somit mußte das physikalische Literaturarchiv bei Vollständigkeit und korrekter Sortierung aus 3724 Artikeln aufgebaut sein. Die Bestandsaufnahme ergab, daß 834 Artikel nicht bzw. nicht an korrekter Stelle abgeheftet waren. Davon waren 124 Artikel an falscher Stelle einsortiert worden, die restlichen 710 Publikationen fehlten. Dies bedeutet, daß umgerechnet rund 3% des Literaturarchivs fehlerhaft einsortiert war, und daß rund 20% des Literaturarchivs fehlte. Aus diesem Grunde wird nach der Komplettierung des physikalischen Literaturarchivs empfohlen, die Literatur im physikalischen Literaturarchiv mit größter Sorgfalt alphabetisch und in sich chronologisch zu sortieren, um bei bestehender Vollständigkeit den sofortigen Zugriff auf die Primärlitertatur jederzeit ermöglichen zu können. 45 Abbildung 13 zeigt die graphische Darstellung des Ergebnisses der Bestandsaufnahme. D a r s t e llu n g d e s E r g e b n is s e s d e r B e s t a n d s a u fn a h m e 4000 A n za h l d e r A r tike l 3000 2000 1000 0 ko m p le tte s fe h le n d e / fa lsc h L ite r a tu r a r c h iv e in so r tie r te L ite r a tu r Abb.13 Anschließend stellte sich die Frage, in welcher Form die fehlende Literatur zur Komplettierung des physikalischen Literaturarchivs beschafft werden sollte. Da es sich bei der fehlende Literatur um eine beträchtliche Anzahl (710 Artikel) handelte, mußte abgewägt werden, ob es notwendig ist, die komplette Literatur zu besorgen, oder ob es ausreichend ist, ein MEDLINE-Abstract auszudrucken. Es konnte ein Konsensus gefunden werden. Beinhaltete der MEDLINE-Abstract die in die Datenbasis aufgenommene Information, so war dieses ausreichend für die Komplettierung des physikalischen Literaturarchivs. Konnten jene Informationen nicht aus dem Abstract entnommen werden oder war gar kein MEDLINE-Abstract verfügbar, so war die Beschaffung der Primärliteratur aus der Bibliothek in Form einer Kopie erforderlich. Dabei wurden 468 MEDLINE-Abstracts und 242 Kopien der Originalliteratur aus der Bibliothek besorgt. Desweiteren stellte sich die Frage, wie die Sortierungsfehler zustande kamen. Nach näherer Untersuchung konnte eine Einteilung der Sortierungsfehler vorgenommen werden. 46 Folgende Fehler haben zu einer falschen Einsortierung der Primärliteratur geführt: • Falsche Orthographie des Erstautorennamen Durch die falsche Orthographie des Erstautorennamen wurden die korrespondierenden Artikel an falscher Stelle abgeheftet. Beispielsweise war der Artikel von Van Griensven JMT: Effect of changing liver blood flow by exercise and food on kinetics and dynamics of saruplase. Clin Pharmacol Ther 57: 381-389 (1995) unter dem Buchstaben G wie "Griensven" statt unter V wie "Van Griensven" abgeheftet oder aber die Artikel von De Groot ANJA wie z.B. Comparison of the bioavailability and pharmacokinetic of oral methylergometrine in men and women. Int J Clin Pharm Ther 33: 328-332 (1995) war unter dem Buchstaben G wie "Groot" statt unter D wie "De Groot" abgeheftet. Derartige Sortierungsfehler fanden sich bei 66 Artikeln. Dies entspricht ca. 53% aller falsch einsortierten Artikel bzw. bei ca. 2% aller Artikel. • Bündelung mehrerer voneinander unabhängiger Artikel aufgrund der Büroklammer Da zur gemeinsamen Abheftung des Artikels mit den Datensatzausdrucken eine Büroklammer verwendet wird, kommt es vor, daß aus Versehen mehrere Artikel zusammenrutschen und durch die Klammer flexibel gebündelt abgeheftet werden. Beispielsweise war mit dem Artikel von Colucci R: Effect of felbamate on the pharmacokinetics of lamotrigine. J Clin Pharmacol 36: 634-638 (1996) zusammen mit folgenden Artikeln abgeheftet: Dockens RC: Assessment of pharmacokinetic and pharmacodynamic interaction between nafazodone and digoxin in healthy male volunteers. J Clin Pharmacol 36: 160167 (1996); Shah A: Pharmacokinetics of intravenous ciprofloxacin in normal in renally impaired subjects. J Antimicrob Chemother 38: 103-116 (1996) 16 Artikel wurden auf diese Weise falsch einsortiert. Dies entspricht rund 13% aller falsch einsortierter Artikel bzw. ca. 0,4% aller Artikel. • Falsche Sortierung ohne offensichtlichen Grund 42 Artikel waren ohne offensichtlichen Grund falsch einsortiert. Dies entspricht rund 34% aller falsch einsortierter Artikel bzw. 1% aller Artikel. 47 Abbildung 14 zeigt eine graphische Darstellung der relativen Häufigkeit der beschriebenen Sortierungsfehler. Darstellung der relativen Häufigkeit der unterschiedlichen Sortierungsfehler Fehler aufgrund falscher Orthographie (53%) Fehler aufgrund versehentlicher Bündelung (13%) 34% 53% 13% Fehler ohne offensichtliche Ursache (34%) Abb.14 3.3 Geringe Standardisierung der Primärliteratur als Fehlerquelle Es läßt sich sagen, daß die unterschiedlichen Präsentationsformen (Veröffentlichung von Fallbeschreibungen, von statistischen Kenngrößen, der gesamten Rohdaten), die nicht miteinander vergleichbaren Untersuchungsbedingungen (Intensivstation, Dialyse- Zentrum), die verschiedenen Modelldarstellungen (Kompartimentenmodell, modellfreie Berechnung), die uneinheitlichen Maßsystemen und die Angabe von Werten mit großen Spannweiten zum einen hohe Anforderungen an die Struktur der pharmakokinetischen Datenbasis stellen und zum anderen eine besonders fehleranfällige Konvertierung notwendig machen, um eine weitestgehende Homogenität der Daten zu erreichen. Desweiteren erschweren sie die Auswahl der zu dokumentierenden pharmakokinetischen Parameter und Daten. Diese Fehlerquelle stellt ein Hauptproblem für die Strukturierung und Dokumentation pharmakokinetischer Daten dar und läßt sich nur schwer bis gar nicht quantifizieren. Sie kann erst dann behoben werden, wenn eine Standardisierung bezüglich der Publikation pharmakokinetischer Daten erfolgt. 48 3.4 Transkription als Fehlerquelle Unvollständige Dokumentation, unklare Zuordnungen zum jeweiligen Arzneimittel und eine schwer leserliche Schrift können als Faktoren für eine fehlerhafte Dateneingabe angesehen werden. Stichproben bei nicht plausiblen Werten zeigten, daß beispielsweise keine Dimension zu den aus der Primärliteratur ausgewählten und handschriftlich fixierten Werten dokumentiert waren oder aber Werte kaum oder nur schwer entziffert werden konnten. Gelegentlich war es schwer, die dokumentierten Werte dem richtigen Generikum zuzuordnen. Die Anzahl der hierdurch entstandenen Fehler läßt sich nicht quantifizieren, ist aber als beträchtlich anzusehen, da es bei der handschriftlichen Fixierung von Daten leicht zu Mißverständnissen kommen kann, die oft nicht geklärt werden. Aus diesem Grunde wird der Entwurf eines speziellen Formulars für die handschriftliche Dokumentation der pharmakokinetischen Daten empfohlen, um Vollständigkeit der Dokumentation zu garantieren. Wie dieses Formular aussehen könnte ist in Abbildung 15 dargestellt. Generikum: Parameter Typ Wert Dimension Sonstiges Abb.15 Mögliches Layout des Formulars zur handschriftlichen Fixierung ausgewählter pharmakokinetischer Daten Desweiteren sollen schwer leserliche Begriffe markiert und ihre Bedeutung im Anschluß geklärt werden, bevor eine Eingabe in die pharmakokinetische Datenbasis erfolgt. 49 3.5 Interindividuelle Unterschiede bei der Dateneingabe Da seit 1994 die Möglichkeit besteht, aufgrund der einem Datensatz zugeordneten Artikelnummer auf die Person rückzuschließen, die diesen Datensatz eingegeben hat, war es möglich einige Schwachstellen aufzuspüren und zuzuordnen. Aufgrund der Tatsache, daß dies erst seit 1994 möglich ist und die Daten schon seit den 70-er Jahren eingegeben werden, war dies nur in begrenztem Umfang möglich. Dabei wurden jeweils 100 Datensätze mit einer 6-stelligen Eingabenummer untersucht, die mit 8 bzw. mit 9 beginnen. Dabei zeigte sich, daß Person A , deren Eingaben mit der Anfangsziffer 8 beginnen, einmal einen falschen Wert - dies entspricht 1 % - und zwei Mal einen falschen Parameter - dies entspricht 2% - eingegeben hat. Bei Person B, deren Eingaben mit der Anfangsziffer 9 beginnen, zeigte sich, daß 13 Mal eine falsche Dimension - dies entspricht 13% - eingegeben wurde; bevorzugt wurde dabei die Dimension % mit F < 1 und umgekehrt verwechselt. 3.6 Auswertung der Fehler- und Fehlerquellensuche 3.6.1 Berechnung der Umrechnungsfaktoren Für die Berechnung bzw. Auswertung der Umrechnungsfaktoren, war es notwendig eine Tabelle zu erstellen. Die Tabelle wies folgende Spalten auf: Parameter-Nummer, Parameter, Einheit, Umrechnungsfaktor (bisher) und Umrechnungsfaktor (korrigiert). Die Umrechnungsfaktoren von insgesamt 175 Einheiten bezogen auf 34 Parameter wurden neu berechnet und mit der alten Berechnung verglichen. Die Neuberechnung wurde von zwei unabhängigen Personen durchgeführt, die zu folgendem Ergebnis kamen: Ursprünglich existierten 175 Einheiten in der pharmakokinetischen Datenbasis. • 15 Umrechnungsfaktoren waren falsch berechnet. • 164 Einheiten mit ihren Umrechnungsfaktoren wurden zugefügt. • 4 Einheiten mit ihren Umrechnungsfaktoren mußten gelöscht werden, da 2 Einheiten doppelt vorhanden waren (Stunde und Prozent) und 2 Einheiten gar nicht existierten (mlU/ml und umol). 50 • Bei 19 Parametern mußte eine Rechtschreibkorrektur vorgenommen werden: Beispielsweise wurde VD in Vd, CLrenal in Clrenal und FR_ELIM in FRelim umgewandelt. Bei einer Gesamtheit von 37 Parametern entspricht dies 51%. Die Ergebnisse sind in Tabelle 3 dargestellt. Tab.3 Ergebnisse der Neuberechnung der Umrechnungsfaktoren absolute Häufigkeit relative Häufigkeit Umrechnungsfaktor falsch 15 9% Umrechnungsfaktor gelöscht 4 2% 164 94% neu zugefügte Einheiten Insgesamt besteht die pharmakokinetische Datenbasis neuerdings aus 339 Einheiten. Änderungen an der pharmakokinetischen Datenbasis Alle falsch berechneten Umrechnungsfaktoren wurden in der Rohdatenbasis und im Ausgabemodul korrigiert, weitere fehlende Dimensionen mitsamt Umrechnungsfaktoren zugefügt, doppelt vorhandene Dimensionen wurden gelöscht. Ferner wurden Rechtschreibkorrekturen bei den Parametern vorgenommen. Bei der Tabelle "Dimensionen" wurde eine Spalte "korrigiert" zugefügt, um zusätzliche Berechnungen der bereits kontrollierten Umrechnungsfaktoren zukünftig zu vermeiden. So ist bei allen kontrollierten Einheiten die Spalte "kontrolliert" mit einem "ja" versehen. Bei allen neu eingegebenen Dimensionen erscheint in der Spalte "kontrolliert" automatisch ein "nein". Diese mit "nein" gekennzeichneten Dimensionen können nun in regelmäßigen Zeitabschnitten nachgeprüft werden. 3.6.2 Auswertung der Konsistenztests Nach der Durchführung der einzelnen Konsistenztests wurde zunächst jeder Test einzeln , später alle zusammen ausgewertet und das Ergebnis tabellarisch dargestellt (Tabelle 4). 51 Tab.4 Gemeinsame Darstellung der Ergebnisse der Konsistenztests Konsistenztest 1 2a 2b 2c 3 4 5 6/7 8 9 10 11/12 13 14 15 16 17 18 19 20 21 22 insgesamt bzw. durchschnittlich Anzahl der untersuchten Generika 203 373 139 88 74 42 47 77 43 63 73 8 38 113 89 4 5 100 276 91 159 62 2167 Anzahl der inkonsistenten Werte relative Häufigkeit 98 94 31 23 9 17 14 33 13 24 29 6 8 21 27 3 4 29 83 39 54 41 700 48% 25% 22% 26% 12% 41% 30% 43% 30% 38% 40% 75% 21% 19% 30% 75% 80% 29% 30% 43% 34% 66% 32% Es wurden insgesamt 2167 Konsistenztests mit 22 unterschiedlichen pharmakokinetischen Formeln zu 331 unterschiedlichen Generika durchgeführt. Dabei erwiesen sich 700 Daten aus dem Ausgabemodul (Extract) als nicht konsistent. Insgesamt entspricht dies etwa 32%. Man kann aus den Ergebnissen der Konsistenztests schließen, daß fehlerhafte Werte in den untersuchten Datensätzen vorliegen müssen. Da die maximal tolerable relative Abweichung von 100% hoch gewählt ist, kann es sein, daß die in diesem Test als konsistent erscheinenden Werte nicht obligat richtig sind. Die relativ hohe Anzahl an inkonsistenten Daten rührt daher, daß das Ausgabemodul (Extract) nur Schätzungen aus vielen einzelnen Rohdaten liefert. Liegen vereinzelt falsche Rohdaten vor, so kommt es zwangsläufig zu inkonsistenten Werten im Ausgabemodul. Die Fehler, die mittels der Konsistenztests aufgedeckt werden sollten, sind nicht zu einem bestimmten Parameter zuzuordnen. Zur näheren Bestimmung müßte man die Ergebnisse der Konsistenztests mit denen der Plausibilitätstests vergleichen und zusätzlich die Rohdaten zu dem inkonsistenten pharmakokinetischen Parameter zur Hilfe nehmen. 52 3.6.3 Auswertung des Plausibilitätstests Plausibilitätstest von Januar 1999 Im Januar 1999 bestand die Rohdatenbasis aus 22.550 Datensätze. Diese 22.550 Rohdaten wurden einem Plausibilitätstest unter den oben genannten Bedingungen unterzogen. Dabei viel auf, daß zu 618 Generika nicht plausible Datensätze vorlagen. Dies hatte zur Folge, daß insgesamt 2684 Datensätze näher, mit Hilfe des neu entworfenen Ausgabemoduls für Rohdaten und des physikalischen Literaturarchivs untersucht werden mußten. Dies entspricht rund 12 % aller Datensätze in der Rohdatenbasis. In der Rohdatenbasis existiert ein Pool mit nicht klar identifizierbarer Literaturquelle (in der pharmakokinetischen Datenbasis als „Literaturquelle unbekannt“ zitiert), der 4.273 Datensätze umfaßt. Dies entspricht etwa 19%. Diese Datensätze stammen aus den 70-er Jahren, als die pharmakokinetischen Daten aus der Literatur noch in unstrukturierter Form in ein Textverarbeitungsprogramm eingegeben wurden. Diese wurden in die aktuelle Datenbasis übernommen. Unter den untersuchten 2684 Datensätzen fanden sich 559 Datensätze ohne Angabe zu Autor/Titel/Journal. Bezogen auf die untersuchten Datensätze entspricht dies 20,8%, bezogen auf die gesamte Datenbasis entspricht dies etwa 2%. Die Problematik besteht darin, daß bei diesen Datensätzen auffällige Werte nicht mit Hilfe der Primärliteratur zurückverfolgt werden können, da keine Angaben hierzu vorliegen. Um eine Häufigkeitsverteilung der nicht plausiblen Daten des Plausibilitätstests vom Januar 1999 bezogen auf die Parameter zu erhalten, mußte eine Auswertung der Plausibilitätstests unter diesem Gesichtspunkt erfolgen. Die Ergebnisse dieser Auswertung sind in der Tabelle 5 ersichtlich. 53 Tab.5 Häufigkeitsverteilung der nicht plausiblen Daten bezogen auf die Parameter Parameter Anzahl der zu untersuchenden Datensätze Anzahl der Datensätze in der Rohdatenbasis relative Häufigkeit Gesamtheit 618 22550 3% Tkin1/2 Vd Vd/F Cltot Cltot/F Tkin1/2ss Clrenal Aelim PB% FRelim RenFR F Cmin Cmax MGW Km Vmax ka MRTkin Css EC50 Hill-coefficient Dmax Dmin ke Tdyn1/2 Vss Emax IC50 Vss/F Clss MRTdyn Tabs1/2 Tdeep1/2 D-EC50 D-IC50 189 68 4 115 17 0 19 2 22 61 39 24 3 8 1 1 1 1 4 1 17 1 0 0 0 8 9 1 1 1 0 0 0 0 0 0 8018 2402 303 3191 577 0 506 24 1998 1132 1287 1135 49 334 86 41 39 29 305 7 246 62 21 18 10 129 495 20 9 37 2 3 14 20 1 0 2% 3% 1% 4% 3% 0% 4% 8% 1% 5% 3% 2% 6% 2% 1% 2% 3% 3% 1% 14% 7% 2% 0% 0% 0% 6% 2% 5% 11% 3% 0% 0% 0% 0% 0% 0% Bei näherer Betrachtung kann man sehen, daß Werte zu selten dokumentierten Parametern, wie z.B. Css, IC50 und Aelim häufiger inplausibel sind als solche zu in größerer Zahl dokumentierten Parametern, wie z.B. Tkin1/2, Vd, Cltot und PB%. Dies kommt dadurch zustande, daß es zu häufig verwendeten Parametern, wie sie eben genannt worden sind, mehrere Rohdaten gibt, die miteinander verrechnet werden können. Je größer die Anzahl der Rohdaten, desto genauer wird die Schätzung. Ausreißer können dabei schneller detektiert werden. 54 3.6.4 Vergleich der Ergebnisse des Plausibilitätstests mit denen der Konsistenztests Untersucht wurden 2167 pharmakokinetische Parameter. Durch Vergleich der Ergebnisse der Konsistenztests mit denen des Plausibilitätstests war es möglich, den für die Inkonsistenz des betreffenden Wertes im Extract verantwortlichen Parameter näher zu bestimmen. Dies erfolgte unter Zuhilfenahme der pharmakokinetischen Formeln. Das Vorgehen soll anhand eines Beispiels näher erläutert werden: Generikum: 5-Fluorouracil Medikamenten-Nummer: 657 Parameter aus dem Extract: Tkin1/2normal 0,3 h Tkin1/2Anurie 0,3 h Vdnormal 18,75 l Cltotnormal 4282 ml/min FRelimHD 0,37 F<1 FRelimHP 0,06 F<1 Vd normal Tkin1 / 2 normal Durchführung des Konsistenztests 2a: Cltot normal = ln 2 ⋅ Ergebnis des Konsistenztests 2a: Cltotnormal(berechnet) = 722 ml/min Im Extract dokumentiert: Cltotnormal = 4282 ml/min Abweichung: 493% Fragestellung: Auf welchen fehlerhaften Parameter könnte die Inkonsistenz des Wertes zu Cltotnormal zurückzuführen sein ? Ergebnis des Plausibilitätstests: Nicht plausible Werte lagen vor für Tkin1/2normal und für Cltotnormal. Vergleich der nicht plausiblen Parameter mit denen, die in der Formel für den Konsistenztest verwendet wurden. 55 Schlußfolgerung: Mit größter Wahrscheinlichkeit kommt die Inkonsistenz des Wertes zu Cltotnormal dadurch zustande, daß entweder falsche Werte zu Tkin1/2normal, zu Cltotnormal oder aber zu beiden Parametern vorliegen. Die Wahrscheinlichkeit dafür, daß die Inkonsistenz des Wertes zu hervorgerufen Cltotnormal durch fehlerhafte Werte zu wurde ist relativ gering, da Vdnormal Vdnormal im Plausibilitätstest keine inplausiblen Werte aufwies. Somit muß primär gezielt nach fehlerhaften Werten zu den beiden Parametern Tkin1/2normal und Cltotnormal gesucht werden. Bei dem Vergleich der Ergebnisse beider Tests kam folgendes Ergebnis zustande: Es existieren inkonsistente Werte zu Parametern von 331 unterschiedlichen Generika, sowie nicht plausible Werte zu Parametern bei 277 Generika. Sowohl inkonsistente als auch nicht plausible Werte zu Parametern fanden sich bei 188 verschiedenen Generika. In 228 Fällen konnte mit Hilfe des Vergleiches beider Tests miteinander auf einen bzw. mehrere Parameter mit fehlerhaften Werten geschlossen werden. Tabelle 6 zeigt die absolute Häufigkeit der Parameter für die fehlerhafte Werte vorliegen müssen. Tab. 6 Darstellung der absoluten Häufigkeit der möglichen Fehlerquellen mögliche Fehlerquelle Tkin1/2normal Tkin1/2Anurie Tkin1/2HD Vdnormal VdAnurie VdHD Vdneonatal Vd/Fnormal Cltotnormal CltotAnurie CltotHD Cltotneonatal Cltot/Fnormal Clrenalnormal RenFRnormal PB%normal PB%Anurie Fnormal MRTkinnormal MRTkinHD Vssnormal absolute Häufigkeit 85 5 14 39 3 1 1 3 52 13 3 1 7 16 13 1 3 5 4 1 3 56 3.7 Klassifizierung der Fehler in der pharmakokinetischen Datenbasis Die Fehler in der pharmakokinetischen Datenbasis konnten mit Hilfe des Plausibilitätstests, des Ausgabemoduls für Rohdaten und des physikalischen Literaturarchivs klassifiziert werden. Der Plausibilitätstest untersuchte 22.500 Rohdaten auf Plausibilität. Dabei erwiesen sich 2.684 Datensätze als nicht plausibel. Mit Hilfe des Ausgabemoduls für Rohdaten konnte anschließend ein Vergleich der nicht plausiblen Datensätze mit den Daten in der Originalliteratur erfolgen. Der Vergleich zeigte, daß insgesamt 465 Datensätze fehlerhaft waren. Dies entspricht 2%. Die Ergebnisse des Vergleichs sind im Einzelnen in Tabelle 7 aufgelistet. Tab.7 Ergebnisse des Vergleichs der im Plausibilitätstest auffälligen Datensätze mit den Daten in der zugehörigen Originalliteratur Klassifikation des Fehlers falscher Typ Wert falsch unterschiedliche Applikation falscher Parameter nicht aus Primärliteratur entnehmbar falsche Dimension unterschiedliche Metabolisierung Wert nicht plausibel falscher Wert und falsche Dimension Kombinationstherapie Generika-Name falsch absolute Anzahl relative Anzahl (bezogen auf die untersuchten Datensätze: 2684) 116 76 69 59 58 4% 3% 3% 2% 2% 55 55 33 18 2% 2% 1% 1% 9 8 0% 0% Man sieht anhand dieser tabellarischen Zusammenfassung des Ergebnisses, daß die meisten Fehler in erster Linie bei der Eingabe des Typs zustande gekommen ist. In zweiter Linie entstanden die Fehler durch Eingabe eines falschen Wertes oder aber durch die Nichtberücksichtigung der Applikationsart. Drittrangig müssen die Fehler angesehen werden, die durch die Eingabe des falschen Parameters, der falschen Dimension und durch die Nichtberücksichtigung der unterschiedlichen Metabolisierung zustande gekommen sind. 57 Die Nichtberücksichtigung der Applikationsart führt dazu, daß die eingegebenen Werte nicht miteinander verglichen werden können. Die Datenbasis geht davon aus, daß alle pharmakokinetischen Werte bei i.v.-Applikation bestimmt wurden. Werte, die nicht bei i.v.-Applikation ermittelt wurden und zudem nicht als Vd/F bzw. Cltot/F eingegeben wurden, werden als nicht plausibel angesehen. Momentan sieht das Programm nicht vor, die Applikationsart zu berücksichtigen. Es ist jedoch möglich derartige Fehler zu vermeiden, ohne eine Änderung im Datenbasissystem vorzunehmen, indem nur Daten eingegeben werden, die tatsächlich bei i.v.-Applikation ermittelt wurden oder aber darauf geachtet wird, daß zu nicht i.v.-applizierten Generika immer der Parameter F, Vd/F bzw. Cltot/F miteingegeben wird . Die Tatsache, daß das Vernachlässigen der Art der Metabolisierung (schnelle/langsame Acetylierer) zu Abweichungen der eingegebenen Werte voneinander geführt haben, macht es notwendig, die Metabolisierung im Eingabemodul, als auch im Ausgabemodul zukünftig zu berücksichtigen. Die Metabolisierung kann als Subtyp in das Formular des Eingabemoduls hinzugefügt werden. Werte, die nicht aus der Literatur entnehmbar waren, stammen mit größter Wahrscheinlichkeit aus Abstracts, die nur einen Ausschnitt der Literatur, nicht aber eine komplette Werteliste präsentieren. Aus diesem Grunde wird empfohlen, so oft wie möglich die komplette Literatur statt der Abstracts zur Datengewinnung heranzuziehen, um einerseits Vollständigkeit der Quellliteratur und andererseits größtmögliche Datenqualität garantieren zu können. Desweiteren können Fehler entweder durch fehlerhafte Graphiken oder aber durch falsche Ableitung entstehen. Werden Werte aus Graphiken abgeleitet, so ist dies stets in der Quellliteratur eingezeichnet, und somit nachvollziehbar. Es wird deutlich, daß mit einer relativen Häufigkeit von 2% (465 fehlerhafte Eingaben von insgesamt 22.500 Eingaben) die Fehlerquote in der pharmakokinetischen Datenbasis gering ist. Um die Fehlerquelle besonders bei den Dimensionen, Parametern und den Typen näher bestimmen zu können, erschien es sinnvoll, Auswertungen bezüglich der Häufigkeit der Fehler bei diesen Eingaben zu machen. Diese sind nach absteigender absoluter Häufigkeit in den Tabellen 8 bis 10 dargestellt. 58 Tab.8 Darstellung der absoluten Häufigkeit der fehlerhaften Eingabe von Dimensionen Eingabe einer falschen Dimension falsche Eingabe % l ml/min l/min l/min/kg h l/h/kg days µg/day l/h/m2 l/kg ml/h/kg l/min/m2 ml/h/day insgesamt korrigierte Eingabe F<1 l/kg l/h ml/min ml/min/kg min ml/min h µg l/h/1,73m2 ml/kg ml/min/kg l/min/kg ml/kg/day absolute Häufigkeit 19 7 5 5 4 3 2 2 2 2 1 1 1 1 55 Man sieht, daß vor allem die Verwechslung der Dimension % mit F < 1 und die Verwechslung der Dimension l mit l/kg zu Fehlern beigetragen haben. Tab.9 Darstellung der absoluten Häufigkeit der fehlerhaften Eingabe von Parametern Eingabe eines falschen Parameters fehlerhafte Eingabe Vd Tkin1/2 Tkin1/2 Clrenal EC50 Cltot/F Vd F Cmax insgesamt korrigierte Eingabe Vss Tdeep1/2 Tdistrib1/2 Cltot IC50 Cltot Vd/F PB% Cmin absolute Häufigkeit 22 19 6 4 3 2 1 1 1 59 Man sieht, daß vor allem die Verwechslung der Parameter Vss mit Vd und die Nichtbeachtung von Tdistrib1/2 (initiale Eliminationshalbwertszeit) und Tdeep1/2 (terminale Eliminationshalbwertszeit) zu nicht plausiblen Daten geführt hat. 59 Tab.10 Darstellung der absoluten Häufigkeit der fehlerhaften Eingabe von Typen Eingabe eines falschen Typs fehlerhafte Eingabe HD HD normal normal normal normal normal Anurie normal HF HD CAPD Anurie HD HD HF HF Anurie insgesamt korrigierte Eingabe IPD CAPD Aged Neonat. Leberinsuff. Frühgeb. Anurie CAPD CAPD CVHF Anurie CAVH HF CAVH cvvHD CAPD normal HD absolute Häufigkeit 31 25 7 7 7 6 6 6 5 3 3 2 2 1 1 1 1 1 118 Man erkennt, daß zum einen die falsche Verwendung von HD statt IPD und die Verwechslung des Parameters CAPD mit HD zu nicht plausiblen Daten geführt hat. Änderungen an der pharmakokinetischen Datenbasis Alle falschen Werte, falsche Dimensionen, falsche Parameter und falsche Typen wurden im Eingabemodul korrigiert. Zusätzlich wurden der Parameter Tdistrib1/2 (initiale Eliminationshalbwertszeit) und der Typ IPD (intermittierende Peritonealdialyse) in die Tabellen der pharmakokinetischen Datenbasis integriert. Um die unterschiedliche Metabolisierung (schnelle / langsame Metabolisierer) in Zukunft berücksichtigen zu können, wurde eine Liste mit der Bezeichnung "Subtyp" in das Eingabeformular eingefügt. Dort kann man zwischen "schneller Metabolisierung" und "langsamer Metabolisierung" auswählen. Die Auswahl ist nicht obligat. 60 3.8 Methoden zur Sicherstellung der Datenkonsistenz Aus der Vielzahl der Methoden, die zur Sicherstellung der Datenkonsistenz angewendet werden können, mußten jene ausgewählt werden, die sich auf unsere pharmakokinetische Datenbasis anwenden lassen. Anschließend mußte überprüft werden, welche Methoden bereits direkt von NEPHARM unterstützt werden, und welche integriert werden könnten. 3.8.1 Doppelte Dateneingabe Die doppelte Dateneingabe erweist sich nicht nur als zeitaufwendiger, sie ist auch kostspieliger und ist daher als zweitrangige Methode für die Qualitätssicherung der Daten in unserer pharmakokinetischen Datenbasis anzusehen. 3.8.2 "Vier-Augen-Prinzip" Das "Vier-Augen-Prinzip" eignet sich gut zur Überprüfung von Tippfehlern. Die Eingabe eines falschen Wertes, einer falschen Dimension oder aber die fehlerhafte Zuordnung zu einem Parameter bzw. Typ kann hierdurch zum größten Teil vermieden werden. 3.8.3 Bestimmung von Integritätsbedingungen Die Bestimmung von lokalen Integritätsbedingungen ist eine Methode, die die pharmakokinetische Datenbasis bereits teilweise direkt unterstützt. • Schlüsselintegrität Jedem neuen Generic, Parameter oder Typ wird automatisch eine neue Nummer zugeordnet, d.h. die Attribute Generikum-Nummer, Parameter-Nummer und TypNummer sind eindeutig und können kein zweites Mal vergeben werden. Eine Ausnahme stellt die Generikum-Nummer da. Diese kann mehrfach vergeben werden, jedoch nur, wenn es sich bei dem Generic um ein Synonym handelt. Dies ist ein Mechanismus, der bereits direkt von der pharmakokinetischen Datenbasis unterstützt wird. 61 • Referentielle Integrität Diese Funktion wird durch Microsoft ACCESS zur Verfügung gestellt und kann per Hand aktiviert werden. Diese Funktion stellt sicher, daß Beziehungen gültig sind, und Verknüpfungen nicht gelöscht werden können, sofern die Löschweitergabe nicht aktiviert ist. Diese Funktion der Datenbasis ist soweit möglich in der pharmakokinetischen Datenbasis NEPHARM bereits aktiviert. • Typenintegrität Es besteht die Möglichkeit, einen Wertebereich zu bestimmten Attributen anzugeben. Diese Methode eignet sich besonders gut für das Attribut "Wert". Neu eingegebene Werte zu einem bestimmten Generic, Parameter und Typ werden dann mit den bereits dokumentierten Werten verglichen. Die bereits dokumentierten Werte legen dabei den Wertebereich fest. Zusätzlich kann man eine mögliche Abweichung des neu eingegebenen Wertes von den bereits dokumentierten festlegen. 3.8.4 check-Klauseln Mit Hilfe von check-Klauseln kann für einzelne Datenfelder ein Wertebereich angegeben werden; beispielsweise muß für den Parameter F der eingegebene Wert stets kleiner als eins sein (F < 1). Dieser Mechanismus entspricht weitestgehend der Bestimmung der Typenintegrität und läßt sich auch in der oben beschriebenen Weise realisieren. 3.8.5 Bestimmung von Datentypen für Felder Dieser Mechanismus stellt sicher, daß in das Werte-Feld auch ein Wert und kein Text eingegeben wird. Dieser Mechanismus wird bereits direkt von der pharmakokinetischen Datenbasis unterstützt. 62 3.8.6 not null-Klausel Wird "Null" in ein Feld eingegeben, so bedeutet dies "Wert ist nicht vorhanden". Im Gegensatz dazu ist die Zahl Null als unterer Grenzwert zu sehen. Die not null-Klausel erzwingt die Eingabe in ein Feld, eventuell auch der Zahl Null. 3.8.7 Anwendungslogik Zusätzlich zu den bereits integrierten und den zu integrierenden Mechanismen kann eine Anwendungslogik genutzt werden. Pharmakokinetische Formeln, wie sie zur Überprüfung der Konsistenz der Daten verwendet wurden, können dazu dienen, die Datenbasis in einem konsistenten Zustand zu halten, indem neu eingegebene Werte unter Zuhilfenahme bereits in der Datenbasis erfaßter Werte überprüft werden. Die neu eingegebenen Werte können dann mit den berechneten Werten verglichen werden. Auch hier kann wie beim Wertebereich eine Abweichung festgelegt werden. 3.8.8 Trigger Trigger sind Integritätsregeln, die immer Integritätsverletzungen anzeigen. Dieser kann anzeigen, wenn z.B. ein neuer Wert eingegeben wird, der nicht im zugehörigen Wertebereich liegt oder aber eine starke Abweichung von dem mittels pharmakokinetischer Formeln berechneten Wert aufweist. Es kann dann noch vor Abschluß der Eingabe überprüft werden, wo die Fehlerquelle zu suchen ist (fehlende Plausibilität, Tippfehler bezüglich des Wertes bzw. der Dimension oder aber Eingabefehler bezüglich des Generics, des Parameters oder Typs etc.). 2.5.9 Protokoll über die Datenänderung Diese Methode ist eine der einfachsten, die zudem Zeit spart. Es wird die Möglichkeit geboten, nur jene Datensätze zu überprüfen, die entweder neu hinzukommen oder aber die 63 korrigiert wurden. Somit wird verhindert, daß stets alle Datensätze auf Konsistenz und Plausibilität überprüft werden müssen. Als äußerst sinnvoll für die Erhaltung der Konsistenz der Daten in der pharmakokinetischen Datenbasis erweisen sich vor allem die Integration von check-Klauseln in Form von Wertebereichen sowie die Integration einer Anwendungslogik in Form von pharmakokinetischen Formeln. Neu einzugebende Werte werden hierbei zum einen mit bereits dokumentierten, alten Werten, welche als Wertebereich fungieren, verglichen, zum anderen werden neu einzugebende Werte mit Werten verglichen, die mit Hilfe der pharmakokinetischen Formeln berechnet wurden. Eine maximale Abweichung wird sowohl für den Wertebereich, als auch für die berechneten Werte festgelegt. Ist die Abweichung des neu einzugebenden Wertes größer als die festgelegte maximale Abweichung, so kann dies mit Hilfe des neu integrierten Triggers angezeigt werden. Zusätzlich kann das "Vier-Augen-Prinzip" dazu beitragen, die Qualität der Daten in der Datenbasis sicherzustellen. Desweiteren könnte die Qualitätskontrolle erleichtert werden, indem alle Veränderungen an der Datenbasis protokolliert würden. Somit müßten nur die Veränderungen überprüft werden. Die Eingabe eines falschen Typs, eines falschen Wertes, eines falschen Parameters oder aber einer falschen Dimension kann auf diese Weise in einem hohen Maß eingeschränkt werden. Technisch gesehen handelt es sich hier um ein anspruchsvolles Problem, da das Datenbanksystem Access die Dokumentation von Änderungen nicht unterstützt und somit entsprechende Mechanismen von Hand programmiert werden müssen. Diese aufgeführten Methoden sind Vorschläge zur Sicherung der Datenqualität in der pharmakokinetischen Datenbasis. Die Integration einiger dieser Methoden stellt die Voraussetzung dar, ein bestimmtes Qualitätsniveau zu halten, wenn nicht sogar zu verbessern. 64 4. Diskussion Ziel der vorliegenden Arbeit war, die Qualität der pharmakokinetischen Datenbank zu verbessern. Dazu wurde die Fehlerquote mit Hilfe statistischer Methoden bestimmt. Neu in diesem Zusammenhang war die Verwendung pharmakokinetischer Formeln in Form von Konsistenztests. Die Quantifizierung der Fehler in einer Datenbank trägt dazu bei, schnell und effektiv zu reagieren, wenn die Qualität des Systems abnimmt, d.h. wenn die Fehlerquote zunimmt (Dambro MR et al. 1988, Hand DJ 1983). Desweiteren wurden die für die Entstehung dieser Fehler verantwortlichen Fehlerquellen unter Verwendung des extra hierfür neu entworfenen Ausgabemoduls für Rohdaten ausfindig gemacht, und Methoden zur weiteren Minimierung der bestehenden Fehlerquote angeboten. Im Folgenden sollen die meisten Fehlerquellen bzw. deren Präventionsmöglichkeiten hinsichtlich der Qualitätssicherung der Daten in der Datenbank diskutiert werden. 4.1 Pharmakokinetische Literatur Die Qualität der Datenbasis kann nur so gut sein, wie die Quelle, aus der die Informationen bezogen werden. "In der pharmakokinetischen Literatur haben sich Inhomogenitäten eingebürgert" (Sheiner LB 1981). Die Daten sind oft heterogen, unpräzise und subjektiv (Lustman F 1978). So wird dem Leser eine Vielzahl an Modellen, unterschiedlichen Einheiten und inkompletter oder stark differierender Information angeboten. (Zellner D et al. 1998/1996, Aronson JK 1988, Sheiner LB 1981). "Es finden sich eigenwillige Präsentationsformen und Variationen der Qualität. Ein Teil der Mitteilungen bestehen nur aus Fallbeschreibungen. Es existieren Veröffentlichungen, in denen lediglich statistische Kenngrößen mitgeteilt werden. Andere jedoch veröffentlichen zusätzlich die gesamten Rohdaten ihrer Untersuchungen" (Schrom T 1995). Desweiteren liegen oftmals unterschiedliche Untersuchungsbedingungen und Patientengruppen vor (Keller F 1993). Die nicht korrekte Anwendung statistischer Methoden in nahezu der Hälfte aller veröffentlichter medizinischer Artikel mit statistischen Berechnungen stellt ein weiteres Problem dar und führt zur Veröffentlichung nicht plausibler Daten. Die Veröffentlichung 65 inkorrekter oder irreführender Ergebnisse ist nicht nur eine Frage verschwendeter Gelder und verschwendeter Zeit, sondern auch der Ethik, da Patienten ungerechtfertigten Unannehmlichkeiten ausgesetzt werden (Jamart J 1994, Hoffmann O 1984, Glantz SA 1980). Mit Hilfe der Fehlersuche konnte bestätigt werden, daß ein Teil der in der pharmakokinetischen Datenbasis NEPHARM dokumentierter Werte nicht plausibel sind. Eine Verbesserung der Qualität der veröffentlichten Daten kann nur erreicht werden, wenn die Journale als stärkste Kraft in der Qualitätskontrolle wissenschaftlicher Arbeit ihren Revisionsprozess entsprechend modifizieren. Derartige Modifikationen würden eine schnelle und effektive Verbesserung der Zuverlässigkeit der klinischen und wissenschaftlichen Literatur bewirken (Glantz SA 1980), und somit auch zur Reduktion nicht plausibler Daten in der pharmakokinetischen Datenbasis zur Folge haben. Um dennoch eine weitestgehende Plausibilität der Daten zu erhalten bedient sich die pharmakokinetische Datenbasis der Meta-Analyse, welche trotz allem annähernd dem wahren Wert entsprechende Schätzungen pharmakokinetischer Parameter liefert. 4.2 Transkription pharmakokinetischer Daten Unter Transkription versteht man die Anfertigung einer akkuraten "Kopie" der Daten mittels Transformation von der einen (handschriftliche) in die andere (computergespeicherte) Form (Dambro MR 1988). Schwierigkeiten beim Lesen der Handschrift, der versehentliche Austausch von Buchstaben bzw. Zahlen oder aber fehlende Angaben, wie z.B. fehlende Angaben zur Dimension tragen zur Fehlerentstehung bei der Dateneingabe bei und beeinträchtigen die Qualität der Daten in der Datenbank. Die handschriftlich fixierten Daten, welche oft in einer unformatierten und ungeordneten Form vorliegen, müssen in eine an das Computersystem angepaßte Form gebracht werden. In dieser Arbeit konnte gezeigt werden, daß ein großer Teil der entstandenen Fehler (2%) als Dimensionsfehler zu klassifizieren sind. Der Großteil dieser Fehler ist dadurch entstanden, daß bei der handschriftlichen Dokumentation oftmals Angaben zur Dimension fehlten. Die korrekte Transkription der Daten war somit nicht gesichert. Aus diesem Grunde wird empfohlen eine speziell für die handschriftliche Fixierung pharmakokinetischer Parameter entworfenes Formular zu verwenden, um Vollständigkeit und Korrektheit der Dokumentation garantieren zu können. 66 Ferner verfügt die eingebende Person oft über geringe medizinische Kenntnisse und ihr liegen oft nur einzelne Ausdrucke oder Skizzen vor, so daß Daten falsch codiert werden. Zusätzlich können Fehler aufgrund von mangelnder Dateneingabekenntnis, von HardwareProblemen und Kommunikationsfehlern etc. entstehen (Dambro MR 1988). Derartige Fehler sind nicht zu unterschätzen. Die vollständige und korrekte handschriftliche Dokumentation zusammen mit der Verbesserung der Computerkenntnisse der Daten eingebenden Person könnten eine weitere Verbesserung der Datenqualität erzielen. 4.3 Lösungsvorschläge zur Vermeidung von Sortierungsfehlern im physikalischen Literaturarchiv Um Sortierungsfehler in Zukunft zu vermeiden, mußten Lösungsvorschläge überlegt und ein System für das physikalische Literaturarchiv entworfen werden: 1) Um orthographische Fehler zu vermeiden, müssen die Personen, die für die Dateneingabe zuständig sind, darauf hingewiesen werden, wie Autorennamen wie De Groot ANJA, Le Corre P, MacGowan AP, Van Harten J oder Von Arnim T in die pharmakokinetische Datenbasis eingegeben werden sollen und nach welcher Systematik die Literatur abgeheftet werden soll (siehe Punkt 2). 2) Da die Primärliteratur alphabetisch sortiert wird, ist der Name des Erstautors entscheidend. Auf folgendes System bezüglich der Sortierung nach Erstautor ist zu achten: Literatur mit dem Erstautor namens • "De Groot ANJA" wird unter dem Buchstaben D • "Le Corre P" wird unter dem Buchstaben L • "MacGowan AP" wird unter dem Buchstaben M • "Van Harten J" wird unter dem Buchstaben V • "Von Arnim T" wird unter dem Buchstaben V abgeheftet. 3) Liegen mehrere Artikel zu einem Erstautor vor, so ist darauf zu achten, daß die Literatur chronologisch nach dem Erscheinungsjahr sortiert wird. 67 4) Die Literatur wird zusammen mit dem Ausdruck der in die Datenbank integrierten Datensätze abgeheftet. Zur Vermeidung der versehentlichen Bündelung mehrerer voneinander unabhängiger Artikel müssen Alternativen zur kombinierten Abheftung mittels einer Büroklammer angestrebt werden: Zum einen könnte man eine kombinierte Abheftung mit Hilfe von im Vergleich zu Büroklammern unflexiblen Heftklammern erreichen. Zum anderen ist es möglich, mit Hilfe eines zusätzlichen Blattes, in welches der Artikel mitsamt Datensatzausdruck eingefaltet und gelocht wird, abzuheften. Letztere Alternative zeigt sich als wertvoller, da es nicht wie bei Verwendung von Heftklammern zu einer einseitigen sich ungünstig für die Abheftung im Ordner auswirkenden Randverdickung kommt. 5) Die fehlerhaften Abheftung ohne erklärbarem Grund bleibt ein unlösbares Problem. Als einziger Lösungsansatz wäre die Sortierung von zwei unabhängigen Personen, deren Effizienz jedoch nicht bewiesen ist. Das Auffinden und Erkennen einer fehlerhaften Sortierung kann mit einer höheren Wahrscheinlichkeit erfolgen, wenn zwei Personen beteiligt sind. 4.4 Dateneingabe 4.4.1 Gewichtung der Fehler bei der Dateneingabe Eine Gewichtung der Fehler ist auf jeden Fall empfehlenswert, denn die Fehlererkennung und -eliminierung ist glücklicherweise nicht in jedem Fall dringend notwendig. Handelt es sich um Schreibfehler, die den Sinn nicht verfälschen, wie z.B. um Fehler in der Rechtschreibung bei der Eingabe des Titels der Literaturquelle, müssen diese nicht unbedingt identifiziert und eliminiert werden. Andererseits gibt es Fehler, die beträchtliche Verwirrungen erzeugen, wie z.B. fehlerhafte Autorennamen oder Laborwerte, welche als schwerwiegend oder im Falle falscher Laborwerte sogar lebensbedrohlich zu bewerten sind, und unbedingt einer Identifizierung und Eliminierung bedürfen (Dambro MR 1988). 68 4.4.2 Strukturierung der Dateneingabe Um das pharmakokinetische Wissen über Arzneimittel aus Publikationen, Lehrbüchern und elektrischen Informationssystemen für die individuelle Dosisanpassung zugänglich zu machen, ist es notwendig dieses in eine strukturierte Datenbank zu integrieren (Keller et al. 1998). Klare Definitionen und Beschreibungen der Daten sind erforderlich, vor allem, wenn zwei oder mehr Datensätze miteinander kombiniert werden, wie es bei der MetaAnalyse der Fall ist (Levitt SH et al. 1993). Eine suboptimale Nutzung der Informationen durch Unvollständigkeit, Unlesbarkeit, inakkurate Informationen, Mangel an standardisierter Terminologie und Beschränkungen in der Zugänglichkeit der Informationen sollen vermieden werden (Moorman PW et al. 1994). Die strukturierte Dateneingabe bietet somit die Möglichkeit, die Qualität der Daten zu verbessern (Gouveia-Oliveira A et al. 1991, Kent DL et al. 1985). Somit ist die strukturierte Eingabe ein Erfordernis höchster Rangordnung, um die einzelnen Daten trotz bestehender Inhomogenität hinsichtlich der Materialgewinnung und -präsentation miteinander vergleichbar und für den Anwender nutzbar zu machen und wurde bereits auf die pharmakokinetische Datenbasis angewandt. Dennoch ist auch zukünftig darauf zu achten, eine maximale Strukturierung zu erzielen. 4.4.3 Änderungen am Eingabeformular Um eine größere Zuverlässigkeit des Systems zu erzielen sind Veränderungen erforderlich. Diese Veränderungen betreffen das Eingabeformular. Änderungen in Form von Ergänzungen können zur Verbesserung der Qualität der pharmakokinetischen Datenbank beitragen. Man geht davon aus, daß die Anzahl der Testpersonen wichtig für die Aussagekraft der Daten ist. Interindividuelle Unterschiede in der Pharmakokinetik, wie sie bei vielen Arzneimitteln bestehen, sind bei einer großen Patientenzahl berücksichtigt, während es sich bei einer kleinen Patientenzahl um individuelle Werte handelt. So müßten Daten, die bei einer großen Patientenzahl ermittelt wurden stärker gewichtet werden, als solche, die bei einer kleinen Patientenzahl ermittelt wurden (Powers J 1990, Sheiner LB 1981). Andererseits muß man aber auch davon ausgehen, daß die Wahrscheinlichkeit für eine Heterogenität innerhalb der Gruppe mit steigender Patientenzahl steigt. Aus diesem Grunde ist die Angabe der Patientenzahl in unserem Fall nicht notwendig. 69 Wichtiger für die Analyse der Daten ist die Angabe der Abweichung, der Abweichungsart (Standardabweichung, etc.) und der Wertart (Median, Mittelwert, Minimum, Maximum). Diese Angaben sind wichtig für die Meta-Analyse, die eine um so genauere Schätzung eines pharmakokinetischen Wertes aus vielen Einzelwerten liefert, je präziser die Rohdaten sind (Zellner D 1997, Chalmers TC 1981). Es läßt sich also sagen, daß präzisere Schätzungen mittels Meta-Analyse erzielt werden können, wenn mehr Wert auf die Angabe sowohl der Patientenzahl, als auch der Abweichung, der Abweichungsart und der Wertart gelegt wird. Desweiteren ist zu erwähnen, daß für gewisse Biotransformationsreaktionen sogenannte genetische Polymorphismen existieren, das heißt es gibt eine Subpopulation der Bevölkerung, die gewisse Fremdstoffe nur sehr langsam metabolisieren kann, sogenannte langsame Metabolisierer, und eine die gewisse Fremdstoffe sehr schnell metabolisieren kann, sogenannte schnelle Metabolisierer. Dies ist daher von Bedeutung, da diese zwei Populationen eine unterschiedliche Pharmakokinetik bezüglich dieser bestimmten Fremdstoffe aufweisen. Diese Unterschiede müssen berücksichtigt werden, da sie neben den unterschiedlichen Arzneimitteleliminationsarten auch ein unterschiedliches Interaktionspotential für verschiedene Arzneimittel zeigen (Meier-Abt PJ 1993). Aus diesem Grunde wurde eine zusätzliche Leiste namens „Subtyp“, welche die unterschiedliche Metabolisierung berücksichtigt, im Eingabeformular zugefügt. Zur zukünftigen Vermeidung der fehlerhaften Eingabe von Dimensionen und Umrechnungsfaktoren, wäre es am effektivsten gewesen, die Möglichkeit der manuellen Eingabe von neuen Dimensionen über das Eingabemodul zu sperren. Da jedoch uneinheitliche Maßsysteme in der Quellliteratur verwendet werden, mußte ein anderer Lösungsweg angeboten werden: Bei der Tabelle "Dimensionen" im Eingabemodul wurde eine Spalte mit der Bezeichnung "kontrolliert" eingefügt. Alle kontrollierten Dimensionen wurden mit einem "ja" gekennzeichnet, alle neuen, unkontrollierten Dimensionen werden zukünftig mit einem "nein" gekennzeichnet. So muß man in regelmäßigen Zeitabständen nur jene Dimensionen und ihre Umrechnungsfaktoren nachprüfen, die mit einem "nein" in der Spalte "kontrolliert" versehen sind. Dies wird in Zukunft nicht nur Fehler vermeiden, es wird auch eine enorme Zeitersparnis bei der Kontrolle der Dimensionen mit ihren Umrechnungsfaktoren zur Folge haben. Die Fehlerrate kann auf diese Weise in Zukunft automatisch reduziert werden. 70 4.4.4 Identifizierung "unbekannter Literaturquellen" Um "unbekannte Literaturquellen" zu identifizieren, müßten alle Literaturquellen zu den jeweiligen Generika durchgesucht werden, um den Datensätzen die Literaturquelle klar zuordnen zu können. Bei einem Umfang von etwa 4.273 Datensätzen, ist davon auszugehen, daß dies einen großen Arbeitsaufwand bedeuten würde. Ferner konnten die Ergebnisse der Fehler- und Fehlerquellensuche zeigen, daß es sich bei dieser Eigenart der pharmakokinetischen Datenbasis eher um ein "Schönheitsfehler" handelt. 4.4.5 Doppelte Dateneingabe Fehler, die bei der Dateneingabe entstanden sind, können viele Probleme verursachen. Eine Technik, die die Anzahl der falschen Eingaben in einer Datenbank verringern kann, ist die doppelte Dateneingabe (Rao JK 1995, Cummings J 1994, Dambro MR 1988). Sie stellt sicher, daß die handschriftlich fixierten Informationen korrekt in die Datenbank transkripiert werden. Ferner können Tippfehler schnell identifiziert und korrigiert werden (Day S et al. 1998, Crombie IK 1986). Sie wird als eine Methode beschrieben, die die Qualität der Daten in einem hohen Maß sichert, indem sie die Fehlerrate in der Datenbank verringert (Zhang J 1998, Meier P 1990). Die Integrität der Datensätze wird verbessert, der Zeitaufwand für die Qualitätskontrolle wird verringert, die Eingabefehler werden wirksam beseitigt und die Datenanalyse erweist sich als effizienter. Der Aufwand hinsichtlich der Kosten und der Zeit ist im Verhältnis zum Nutzen gering, muß jedoch individuell gegen die einfache Dateneingabe mit Blick auf das ultimative Ziel, überzeugende und valide Ergebnisse zu erhalten, abgewogen werden (Zhang J 1998, Rao JK 1995, Cummings J 1994). Im Falle der pharmakokinetischen Datenbasis erwies sich die doppelte Dateneingabe, jedoch zum einen mit einem Textverarbeitungsprogramm und zum anderen mit einem Datenverarbeitungsprogramm, als nicht vorteilhafter als die einfache, strukturierte Dateneingabe, da keine signifikante Abnahme der Fehlerrate erkennbar war (Zellner D et al. 1996). 71 4.4.6 Qualitätskontrolle der Daten Die Hauptaufgabe der Qualitätskontrolle ist die Identifizierung, die Überprüfung und die Korrektur der Fehler in den gesammelten Daten. Die Daten müssen routinemäßig auf Fehler überprüft werden und so lange korrigiert werden, bis sie fehlerfrei sind (Carlson D et al. 1995, Karrison T 1981). Kann jedoch die Fehlerquelle für einen falschen Wert nicht bestimmt werden und ist somit eine Korrektur nicht möglich, so sollte dieser Wert einfach ausgelassen werden (Duquet W et al. 1979). Folgende Forderungen werden an das Eingabeprogramm gestellt: Erstens, Überprüfung jedes Feldes des neuen Datensatzes und zweitens, Vergleich der Neueingabe mit bereits integrierten Datensätzen, um zu ermitteln, ob die Neueingabe konsistent mit anderen Eingaben ist. Derartige Programme für die Dateneingabe müssen in der Lage sein, eine Vielzahl verschiedener Fehler wie z.B. fehlende Eingaben, Ausreißer, Inkonsistenzen und andere Datenprobleme zu erkennen (Felegi IP 1976). Dazu müssen Regeln für die Plausibilitätsprüfung formuliert werden (Heindl B et al. 2000). Auch das Schreiben eines Protokolls über Veränderungen der Datenbank im Sinne einer Korrektur oder einer Neueingabe stellt eine gute Möglichkeit für die visuelle Fehlererkennung, - überprüfung und - eliminierung dar (Findley TW 1989). Alle protokollierten Daten werden dabei in regelmäßigen Zeitabständen durchgesehen. Jede Dateneingabe bzw. Korrektur wird auf fehlende Daten, stark abweichende Daten und unlogische oder inkonsistente Daten überprüft. Diese Überprüfungen dienen nicht nur zur Erkennung und Korrektur von Fehlern, sie ermöglichen auch die Erkennung, wo Übungsbedarf besteht und / oder wo Mißverständnisse vorlagen (Severe JB et al. 1989). Die Integration derartiger Mechanismen zur automatischen bzw. visuellen Identifizierung, Überprüfung und Eliminierung von Eingabefehlern ist die wichtigste Maßnahme zur Sicherstellung der Qualität der pharmakokinetischen Datenbasis, da schon bei der Dateneingabe die Dokumentation nicht plausibler Daten verhindert bzw. eingeschränkt wird. 72 4.5 Datenanalyse Um zuverlässige pharmakokinetische Daten für die individuelle Dosisanpassung zu erhalten, müssen die pharmakokinetischen Daten aus der Literatur mit Hilfe verschiedener statistischer Methoden analysiert werden (Zellner D et al. 1996). Die Meta-Analyse wird dabei definiert als eine statistische Methode, welche die Ergebnisse mehrerer voneinander unabhängiger Studien objektiv, also expertenunabhängig, kombiniert (Zellner D et al. 1998, Anello C 1995). Die Meta-Analyse klinischer Studien hat eine Stufe der generellen Akzeptanz in der Statistik und in der klinischen Literatur erreicht, obwohl die Ergebnisse von Studien, deren Qualität teilweise als mangelhaft anzusehen ist, kombiniert werden (Dickersin K 1992). Jedoch sollte eine Aufgabe der Meta-Analyse sein, Schwachstellen aufzudecken und die Forscher zu einer Qualitätsverbesserung in zukünftigen Studien zu ermutigen. Ferner könnte ein reales Ergebnis der Meta-Analyse als Richtwert für zukünftige Studien dienen (Chalmers TC 1991). Die Ergebnisse der Meta-Analyse müssen dennoch mit Vorsicht interpretiert werden und als zusätzliche Forschungsdaten angesehen werden, die jedoch eine nützliche Richtung in der Krankenversorgung und zukünftigen Foschung angibt (Dickersin K 1992). Der stetigen Verbesserung der statistischen Qualität derartiger Datenanalysierprogramme ist große Bedeutung beizumessen, um die Zuverlässigkeit, Power und Effizienz der statistischen Methoden zu erhöhen und an neuere Studien anzupassen. Es ist nachzuprüfen, ob die angewandten Methoden korrekte Ergebnisse liefern. Denn eine gute Methode für die Schätzung pharmakokinetischer Parameter ist nur jene, die Schätzungen produziert, die dem wahren Wert nahekommen (Purves RD 1993, Chalmers TC 1991, Goodwin LD 1984, Haux R 1983). Dies bedeutet, daß nicht vergessen werden darf, stets neuere, effizientere Methoden zur Schätzung pharmakokinetischer Parameter in die pharmakokinetische Datenbasis NEPHARM zu integrieren. 4.6 Aktualisierung des Ausgabemoduls Das Ausgabemodul repräsentiert die Ergebnisse der Meta-Analyse als relativ gute Schätzungen aus heterogenen Daten, und ist das Endprodukt, welches die Grundlage für die individuelle Dosisanpassung bildet. Aus diesem Grunde besteht die Notwendigkeit, die 73 Möglichkeit zu eröffnen, stets aktuelle Daten abfragen zu können. Dazu bedarf es eines regelmäßigen "Updates" (Rao JK 1995). 4.7 Sicherung des Computersystems Ebenfalls von Bedeutung für die Qualitätssicherung ist die Anfertigung mehrerer Sicherheitskopien des Programms, für den Fall, daß das Computersystem eine Manipulation erfährt. Dabei sollte sich eine Kopie in der Nähe des Computers befinden, eine weitere außerhalb des Büros (Rao JK 1995). Auch von NEPHARM werden regelmäßig komplette Sicherheitskopien angefertigt. 4.8 Empfehlungen Um eine möglichst hohe Qualität der pharmakokinetischen Datenbank garantieren zu können, ist es empfehlenswert, die Fehlerquellen zu (er-)kennen und Mechanismen zu integrieren, welche in der Lage sind, die Fehlerentstehung wirksam zu minimieren. Wichtig in diesem Zusammenhang ist es zu wissen, daß die meisten Fehler am Anfang der Datenverarbeitungskette entstehen, also in den Publikationen und bei der Dateneingabe, so daß der gezielte Eingriff in den Ablauf der Datenverarbeitung genau dort erfolgen muß. Für die Qualitätssicherung der pharmakokinetischen Datenbasis NEPHARM werden folgende Empfehlungen ausgesprochen: • Aktualisierung des Extracts Damit alle vorgenommenen Veränderungen an der pharmakokinetischen Datenbasis wirksam und sichtbar werden können, ist die Aktualisierung des Extracts notwendig. • Integration des "Vier-Augen-Prinzips" Die eingegebenen Daten sollen nur durch eine zweite kontrollierende Person freigegeben werden können. 74 • Integration von check-Klauseln Ein Wertebereich für neu einzugebende Werte soll mit Hilfe bereits eingegebener Werte festgelegt werden. Zusätzlich kann eine maximal mögliche Abweichung von diesem Wertebereich angegeben werden. • Integration einer Anwendungslogik Die in dieser Arbeit verwendeten pharmakokinetischen Formeln können als Anwendungslogik in das System integriert werden. Dabei können neu einzugebende Parameter mit Hilfe bereits dokumentierter Werte berechnet werden. Dieser neu berechnete Wert wird dann mit dem neu einzugebenden Wert verglichen. Auch hier kann zusätzlich eine maximal mögliche Abweichung vom errechneten Wert vorgegeben werden. • Integration von Triggern Trigger sollen anzeigen, wenn der neu eingegebene Wert von dem Wertebereich bzw. von dem berechneten Wert in einem nicht akzeptablen Ausmaß abweicht. Der neu einzugebende Wert kann daraufhin auf Fehler überprüft werden, bevor er in das System integriert wird. • Integration eines Protokolls Über zukünftige Datenänderungen, sei es in Form von Neueingaben oder Korrekturen, soll von der Datenbasis ein Protokoll angefertigt werden. Das Protokoll ermöglicht die zusätzliche Nachkontrolle aller neu dokumentierten Werte. Die Konsequenzen der Integration dieser Methoden zur Qualitätssicherung lassen sich erst in der Zukunft quantifizieren. Momentan läßt sich nach Überlegung nur sagen, daß das "Vier-Augen-Prinzip", die check-Klauseln, die Anwendungslogik sowie vor allem das Protokoll über Datenänderungen wohl die größte Effizienz bezüglich der Qualitätssicherung der Daten in der pharmakokinetischen Datenbasis erzielen werden. Es besteht das Bestreben mittels der Kombination, sowohl aller vorgenommen, als auch aller vorgeschlagenen Veränderungen an der pharmakokinetischen Datenbais NEPHARM eine annähernd fehlerfreie Datenbank zu erhalten. Diesem Bestreben kann auch mit relativ hoher Sicherheit nachgekommen werden, für eine sichere und effektive Arzneimittelanwendung ist jedoch ein fundiertes Grundwissen von der Pharmakokinetik 75 und Pharmakodynamik als Grundlage für die Vorhersage des Verhaltens bestimmter Arzneimittel im Organismus mindestens genauso wichtig (Rasymas A 1992). 76 5. Zusammenfassung Das Ziel der Arzneimitteltherapie ist es, optimale und sichere Veränderungen durch eine effektive Arzneimitteldosis hervorzurufen. Um diesem Ziel näher zu kommen, wurde eine pharmakokinetische Datenbasis NEPHARM entworfen, die eine optimale individuelle Dosisanpassung ermöglichen soll. Die hierfür benötigten Daten werden aus Primärliteratur bezogen. Leider existieren Fehler in dieser pharmakokinetischen Datenbasis, die durch verschiedene Faktoren bedingt sind und die Möglichkeit einer optimalen individuellen Dosisanpassung einschränken. Da heutzutage die Qualität ein wichtiges Bestreben in allen Gebieten der Wissenschaft ist, ist es von großer Bedeutung, Qualitätssysteme zu entwickeln und zu integrieren, die es ermöglichen, eine möglichst hohe Qualität der Daten in einer Datenbank zu garantieren, indem sie die Daten während und nach der Eingabe kontrollieren. Für die Bewertung der Qualität war es zunächst notwendig, die Fehlerrate zu bestimmen und die Fehler zu klassifizieren und zu quantifizieren. Ebenso mußten die Faktoren für die Fehlerentstehung bestimmt werden, um Möglichkeiten für Verbesserungen des Systems anbieten zu können. Dazu wurde im ersten Schritt eine Bestandsaufnahme des physikalischen Literaturarchivs als Informationsquelle der pharmakokinetischen Datenbasis vorgenommen und die fehlende Literatur besorgt. Im zweiten Schritt wurden statistische Tests wie Konsistenz- und Plausibilitätstests durchgeführt und ein Analysierwerkzeug entworfen, welches dem Anwender die Möglichkeit eröffnet, schnell und einfach auf Rohdaten zurückzugreifen, um einen aus den statistischen Tests als nicht plausiblen hervorgehenden Wert nachzuprüfen. Im dritten Schritt konnte eine Klassifizierung und Korrektur der Fehler erfolgen und die Fehlerquellen bestimmt werden. Es stellte sich heraus, daß die Heterogenität der Daten in der Literatur und der Prozeß der Transkription und Dateneingabe eine der anfälligsten Faktoren der Fehlerentstehung sind. Um der Heterogenität der Daten in der Literatur entgegenzuwirken, müssen in der Zukunft verbesserte statistische und analytische Methoden entwickelt werden, die in der Lage sind, den Gebrauch der zur Verfügung stehenden Information zu optimieren und standardisiert zu berichten. Um vor allem in den Prozeß der Transkription und der Dateneingabe einzugreifen, wurden verschiedene Mechanismen wie das „Vier-Augen-Prinzip“, die Bestimmung von Integritätsbedingungen, check-Klauseln, die Anwendungslogik, Trigger und die Protokoll-führung über Datenänderungen angeboten, die es ermöglichen können, die Qualität der Daten zu erhöhen und einen bestimmten Qualitätsstand zu garantieren. 77 Dabei spielt vor allem die Verwendung bereits dokumentierter Daten und die Integration pharmakokinetischer Formeln eine bedeutende Rolle. In diesem Zusammenhang wichtig erscheint die Tatsache, daß erst durch die Kombination verschiedener Methoden dem Bestreben einer fehlerfreien Datenbank näher gekommen werden kann. 78 6. Literatur Anello C, Fleiss JL Exploratory or analytic meta-analysis: should we distinguish between them ? J Clin Epidemiol 48(1): 109-116 (1995) Aronson JK, Dengler HJ, Dettli L, Follath F Standardization of symbols in clinical pharmacology. Eur J Clin Pharmacol 35: 1-7 (1988) Benet LZ, Mitchel JR, Sheiner LB Pharmacokinetics: The dynamics of drug absorption, distribution and elimination. In Goodman and Gilman´s. The pharmacological basis of therapeutics. 8th Ed Pergamon, New York: 3-32 (1990) Benet LZ, Zia-Amirhosseini P Basic principles of pharmacokinetics. Toxicol Pathology 23(2): 115-123 (1995) Benet LZ Pharmacokinetic parameters: which are necessary to define a drug substance? Eur J Respir Dis (Suppl) 134: 45-61 (1984) Birnbaum LS Pharmacokinetic basis of age-related changes in sensitivity to toxicants. Annu Rev Pharmacol 31: 101-128 (1991) Biskup J Grundlagen von Informationssystemen Vieweg-Verlag, Braunschweig, Wiesbaden (1995) 79 Bjornsson TD Practical uses of individual pharmacokinetic parameters in drug development and clinical practice: examples and simulations. European Journal of Drug Metabolism and Pharmacokinetics 22(1):1-14 (1997) Buffington DE, Lampasona V, Chandler MH Computers in pharmacokinetics. Choosing software for clinical decision making. Clin Pharmacokinet 25 (3): 205-216 (1993) Burton ME, Vasko MR, Brater DC Comparison of drug dosing methods. Clin Pharmacokinet 10: 1-37 (1985) Carlson D, Wallace CJ, East TD, Morris AH Verification & validation algorithms for data used in critical care decision support systems. Proc Annu Symp Comput Appl Med Care 56: 188-192 (1995) Chalmers TC, Smith H Jr., Blackburn B A method for assessing the quality of a randomized control trial. Control Clin Trials 2: 31-49 (1981) Chalmers TC Problems induced by meta-analysis. Stat Med 10: 971-980 (1991) Chrymko MM, Scherpbier HJ Computerized pharmacokinetics on an institutional clinical information system. Pharm Pract Manag Q 15 (3): 36-43 (1995) Chutka DS, Evans JM, Fleming KC, Mikkelson KG Symposium on geriatrics - Part I: Drug prescribing for elderly patients. Mayo Clin Proc 70 (7): 685-693 (1995) 80 Clewell HJ 3rd, Anderson ME Use of physiologically based pharmacokinetic modeling to investigate individual versus population risk. Toxicology 111 (1-3): 315-329 (1996) Crombie IK, Irving JM An investigation of data entry methods with personal computer. Comput Biomed Res 19(6): 543-550 (1986) Crooks J, Stevenson I Drug response in the elderly - sensitivity and pharmacokinetic considerations. Age Ageing 10(2): 73-80 (1981) Cummings J, Masten J Customized dual data entry for computerized data analysis. Qual Assur 3(3): 300-303 (1994) Dadam P Vorlesungsskript: Grundlagen - Datenbanken und Informationssysteme (1999) Dambro MR, Weiss BD Assessing the quality of data entry in a computerized medical records system. J Med Syst 12(3): 181-187 (1988) Day S, Fayers P, Harvey D Double data entry: what value, what price ? Control Clin Trials 19: 15-24 (1998) Dettli L Drug dosage in renal disease. Clin Pharmacokinet 1: 126-134 (1976) 81 Dickersin K, Berlin JA Meta-analysis: state-of-the-science. Epidemiologic Reviews 14: 154-176 (1992) Dominguez-Gil A Contribution of biopharmaceutics and pharmacokinetics to improve drug therapy. Eur J Drug Metab Pharmacokinet 18 (1): 1-5 (1993) Duquet W, De Meulenaere F, Borms J A method for detecting errors in data of growth studies. Annals of Human Biology 6(5): 431-441 (1979) Epstein M Effects of aging on the kidney. Fed Proc 38(2): 168-171 (1979) Evans WE, Relling MV, Rodman JH, Chrom WR, Boyett JN, Pui CH Conventional compaired with individualized chemotherapy for childhood acute lymphoblastic leukemia. N Eng J Med 338: 499-505 (1998) Felegi IP, Holt D A systematic approach to automatic edit and imputation. J Amer Statist Assoc 71: 17-35 (1976) Fillastre JP, Moulin B, Dhib M Pharmacokinetics and the aged person. Nephrologie 11(5): 285-287 (1990) Fillastre JP, Singlas E Pharmacokinetic of newer drugs in patients with renal impairment (Part I). Clin Pharmacokinet 20(4): 293-310 (1991) 82 Findley TW, Stineman MG Research in physical medicine and rehabilitation. V. Data entry and early exploratory data analysis. Am J Phys Med Rehabil 68(5): 240-251 (1989) Frankewitsch T, Zellner, D, Keller F Elektronische Arzneimittelinformationssysteme Münch Med Wschr 138(9): 140-143 (1996) Gibaldi M, Perrier D Pharmacokinetics. Second edition, Revised and Expanded. Drugs and the Pharmaceutical Sciences, Volume 15. Marcel Dekker, New York (1982) Gibson D, Harvey AJ, Everett V, Parmar MK Is double data entry necessary? Control Clin Trials 15(6): 482-488 (1994) Glantz SA Biostatistics: How to detect, correct and prevent errors in the medical literature. Circulation 61(1): 1-7 (1980) Goodwin LD Increasing efficiency and precision of data analysis: multivariate statistical techniques. Nurs Res 33(4): 247-249 (1984) Gouveia-Oliveira A, Raposo VD, Salgado NC et al. Longitudinal comparative study on the influence of computers on reporting of clinical data. Endoscopy 23: 334-337 (1991) Grams RR, Zhang D, Yue B A primary care application of an integrated computer-based pharmacy system. J Med Syst 20(6): 413-422 (1996) 83 Greenblatt DJ Pharmacokinetic principles in clinical medicine. J Clin Pharmacol 32: 118-123 (1992) Gundert-Remy U Age as a factor in dose-response relationship of drugs. Z Gerontol Geriatr 28(6): 408-414 (1995) Guth DJ, Raymond TS A database designed to support dose-response analysis and risk assessment. Toxicology 114(1): 81-90 (1996) Hand DJ Common errors in data analysis: the apparent error rate of classification rules. Psychological Medicine 13: 201-203 (1983) Heindl B, Pollwein B, Schleutermann S, Haller M, Finsterer U Development of a knowledge-base for automatic monitoring of renal function of intensive care patients over time. Comp Meth Prog Biomed 62: 1-10 (2000) Heinemeyer G Hepatischer Arzneimittelmetabolismus bei Patienten mit eingeschränkter Nierenfunktion. Nieren- und Hochdruckkrankheiten 19: 442-444 (1990) Heuer A, Saake G Datenbanken: Konzepte und Sprachen MITP-Verlag, Bonn, 2. Auflage (2000) Heuer A Objektorientierte Datenbanken - Konzepte, Modelle, Standards und Systeme Addison-Wesley, Bonn, 2. Auflage (1997) 84 Hoffmann O Application of statistics and frequency of statistical errors in articles in Acta Neurochirurgica. Acta Neurochirurgica 71: 307-315 (1984) Ishizaki T Drug therapy in the elderly. Nippon Ronen Igakkai Zasshi 29(1): 10-16 (1992) Jamart J Statistical tests in medical research. Acta Oncologica 37(1): 723-727 (1992) Jelliffe RW, Schumitzky A, Van Guilder M, Liu M, Hu L, Maire P, Gomis P, Barbaut X, Tahani B Individualizing drug dosage regimens: roles of population pharmacokinetic and dynamic models, Bayesian fitting, and adaptive control. Ther Drug Monit 15: 380-393 (1993) Jusko WJ, Gibaldi M Effects of change in elimination on various parameters of the two-compartment open model. J Pharm Sci 61: 1270-1273 (1972) Karrison T Data editing in a clinical trial. Control Clin Trials 2: 15-29 (1981) Keller F, Erdmann K, Giehl M, Buettner P Nonparametric meta-analysis of published data on kidney-function dependence of pharmacokinetic parameters for the aminoglycoside Netilmicin. Clin Pharmacokinet 25(1): 71-79 (1993) 85 Keller F, Frankewitsch T, Zellner D, Simon S, Czock D, Giehl M Standardized structure and modular design of a pharmacokinetic database. Comput Meth Progr Biomed 55: 107-115 (1998) Keller F, Frankewitsch T Besonderheiten der Arzneimitteldosierung im Alter und der Niereninsuffizienz Münch Med Wschr 10: 142-143 (1997) Keller F, Giehl M, Frankewitsch T, Zellner D, Simon S Overlooked decrease in renal function as a major reason for adverse drug reactions in the elderly. Europ J Intern Med 7: 211 - 215 (1996) Keller F, Schwarz A Pharmakokinetik bei Niereninsuffizienz. Gustav Fischer Verlag Stuttgart - New York (1987) Keller F Arzneimitteltherapie bei Patienten mit Niereninsuffizienz. Therapie-Handbuch. Domschke, Hohenberger, Meinertz, Reinhardt, Tölle, Wilmanns. Urban & Schwarzenberg München - Wien - Baltimore. Kent DL, Shortliffe EH, Carlson RW, Bischoff MB, Jacobs CD Improvment in data collection through physician use of computer-based chemotherapy treatment consultant. J Clin Oncol 3: 1409-1417 (1985) Kokot F Dosage of drugs in patients with kidney diseases. Wiad Lek 49(7-12): 87-91 (1996) Lauven PM, Röper A Grundlagen der Pharmakokinetik Anaesthesist 44: 663-676 (1995) 86 Lenert LA, Klostermann H, Coleman RW, Blaschke TF Practical computer-assisted dosing for aminoglycoside antibiotics. Antimicrob Agents Chemother 36 (6): 1230-1235 (1992) Levitt SH, Aeppli DM, Potish R, Lee CK, Nierengarten ME Influences on inferences. Cancer 72: 2075-2082 (1993) Lindeman RD Changes in renal function with aging. Implications for treatment. Drugs Aging 2(5): 423-431 (1992) Lustman F Processing medical records: data related problems. Med Inform 3(4): 317-325 (1978) Meier P Discussion following Neaton et al. Stat Med 9: 124 (1990) Meier-Abt PJ, Meier C Interaktionen von Medikamenten als Ursache von unerwünschten Arzneimittelnebenwirkungen. Therapeutische Umschau 50(1): 42-48 (1993) Merle Y, Mentre F Bayesian design criteria: computation, comparison, and application to a pharmacokinetic and pharmacodynamic model. J Pharmacokinet Biopharm 23(1): 101-125 (1995) Meyer BR, Bellucci A Renal function in the elderly. Cardiol Clin 4(2): 227-234 (1986) 87 Meyer BR Renal function aging. J Am Geriatr Soc 37(8): 791-800 (1989) Moorman PW, Van Ginneken AM, Van der Lei J, Van Bemmel JH A model for structured data entry based on explicit descriptional knowledge. Meth Inform Med 33: 454-463 (1994) Muhlberg W, Platt D Age-dependent changes of the kidneys: pharmacological implications. Gerontology 45(5): 243-253 (1999) Niederstadt C, Steinhoff J The kidneys in aging. Z Gerontol Geriatr 30(3): 200-207 (1997) Oellerich M Therapeutic drug monitoring and pharmacokinetic dose prediction methods. Wien Klin Wochenschr (Suppl) 191: 12-15 (1992) Piafsky KM Disease-induced changes in plasma binding of drugs. Clin Pharmacokinet 5: 246-262 (1980) Purves RD Methods for estimating pharmacokinetic parameters should be thoroughly tested. J Pharm Sci 82(10): 1064-1065 (1993) Rao JK, Callahan LF Systems for data analysis. Rheuma Dis Clin N Am 21(2): 359-379 (1995) Rasymas A Basic pharmacology and pharmacokinetics. Clin Pediatr Med Surg 9(2): 211-221 (1992) 88 Reidenberg MM Trends in clinical pharmacokinetics. Clin Pharmacokinet 24(1): 1-9 (1993) Reynolds JR Pharmacokinetic considerations in critical care. Crit Care Nurs Clin North Am 5(2): 227-235 (1993) Reynolds-Haertle RA, McBride R Single vs. double data entry in CAST. Control Clin Trials 13(6): 487-494 (1992) Riggs MM Population pharmacokinetics/pharmacodynamics and individualized drug therapy. J Am Pharm Assoc (Wash) 37 (1): 59-61 (1997) Rosner GL, Muller P Bayesian population pharmacokinetic and pharmacodynamic analyses using mixture models. J Pharmacokinet Biopharm 25(2): 209-233 (1997) Schrom T Erstellung und Evaluierung einer pharmakokinetischen Datenbank als Basis einer computergestützten Dosisanpassung bei Niereninsuffizienz. Dissertation zur Erlangung der medizinischen Doktorwürde (Freie Universität Berlin 1995) Sebaldt RJ, Kreeft JH Efficient pharmacokinetic modeling of complex clinical dosing regimens: the universal elementary dosing regimen and computer algorithm EDFAST. J Pharm Sci 76 (2): 93-100 (1987) 89 Severe JB, Schooler NR, Lee JH, Haas G, MueserKT, Rosen P, Shortell D, Shumway M Ensuring data quality in a multicenter clinical trial: remote site data entry, central coordination and feedback. Psychopharmacology Bulletin 25(3): 488-490 (1989) Sforza VA Quality data: what are they ? Ann 1st Super Sanita 30(4): 439-443 (1994) Sheiner LB, Beal SL Evaluation of methods for estimating population pharmacokinetic parameters. J Pharmacokinet Biopharm 9(5): 635-651 (1981) Sheiner LB, Benet LZ, Pagliaro LA Pharmacokinetic data a standard approach to compiling clinical pharmacokinetic data. J Pharmacokinet Biopharm 9: 59-127 (1981). Sitar DS Metabolism and pharmacokinetics of drugs in the aging population. Clin Biochem 26: 437-438 (1993) Terezhalmy GT Rational pharmacotherapy for the elderly. Dent Clin North Am 33(1): 59-66 (1989) Tsujimoto G, Hashimoto K, Hoffman BB Pharmacokinetic and pharmacodynamic principles of drug therapy in old age. Part 1 Int J Clin Pharm Ther Toxicol 27(1): 13-26 (1989) Turnheim K Drug dosage in the elderly. Is it rational? Drugs Aging 13(5): 357-379 (1998) 90 Viani A, Rizzo G, Carrai M, Pacifici GM The effect of aging on plasma albumin and plasma protein binding of diazepam, salicylic acid and digitoxin in healthy subjects and patients with renal impairment. Br J Clin Pharmac 33: 299-304 (1992) Wakefield Y Bayesian individualization via sampling-based methods. J Pharmacokinet Biopharm 24(1): 103-131 (1996) Weiss M Theoretische Pharmakokinetik Verlag Gesundheit GmbH, Berlin 1990 Williams L, Lowenthal DT Drug therapy in the elderly. South Med J 85(2): 127-131 (1992) Woodhouse KW Pharmacokinetics of drugs in the elderly. J Roy Soc Med (Suppl. 23) 87: 2-4 (1994) Yuen GJ Altered pharmacokinetics in the elderly. Clin geriatr Med 6(2): 257-267 (1990) Zaske DE, Cipolle RJ, Rotschafer JC, Kohls PR, Strate RG Individualizing Amikacin regimens: accurate method to achieve therapeutic concentrations. Ther Drug Monit 13: 502-506 (1991) Zauderer B Age-related changes in renal function. Crit Care Nurs Q 19(2): 34-40 (1996) 91 Zellner D, Frankewitsch T, Keller F Synthesis of pharmacokinetic parameters of vancomycin via bootstrap methods. Int J Clin Pharm Ther 36(10): 554-560 (1998) Zellner D, Frankewitsch T, Simon S, Keller F Statistical analysis of heterogenous pharmacokinetic data from literature. Eur J Clin Chem Clin Biochem 34(7): 585-589 (1996) Zellner D, Zellner GE, Keller F Meta-analysis of vancomycin pharmacokinetics. Clin Research & Reg Affairs 15(2): 91-113 (1998) Zellner D Metaanalyse pharmakokinetischer Literaturdaten. Dissertation zur Erlangung des Doktorgrades der Humanbiologie an der Universität Ulm (1997) Zhang J, Hu W Single or double data entry: considerations based on a simple binominal model. Control Clin Trials 19: 56-58 (1998) 92 7. Danksagung Mein besonderer Dank gilt Herrn Prof. Dr. med. F. Keller für die Überlassung des Themas, die vielfältigen Anregungen und die vorzügliche Betreuung während der Arbeit. Weiterhin möchte ich Herrn Dr. med. D. Czock für seinen großen, freundschaftlichen Einsatz danken, der wesentlich zur Realisation dieser Arbeit beigetragen hat, sowie für zahlreiche Ideen und Korrekturen, Herrn Dr. Zellner für die statistische Betreuung und Frau Müller für die freundliche Zusammenarbeit. 93 8. Lebenslauf Silvia Seles Max-Eyth-Straße 22 71691 Freiberg am Neckar Persönliche Daten geb. am 27.10.1976 in Stuttgart ledig Ausbildungsdaten Schulbildung 1982-1986 Vogelsang Grundschule in Stuttgart 1986-1992 Mädchengymnasium St. Agnes in Stuttgart 1992-1995 Mörike Gymnasium in Ludwigsburg Studium 1995-2002 Studium der Humanmedizin, Universität Ulm September 1997 - Ärztliche Vorprüfung August 1998 - Erster Abschnitt der Ärztlichen Prüfung April 2001 - Zweiter Abschnitt der Ärztlichen Prüfung April 2002 - Dritter Abschnitt der Ärztlichen Prüfung 94