Bild- und Copyrightverzeichnis Quelle Aventis Crop Science, Lyon Artemis Pharmaceuticals, Köln/Tübingen Aventis S.A., Straßburg, Frankreich Aventis Behring, Marburg Aventis Research & Technologies, Frankfurt/M. Associated Press, New York, NY, USA Bancroft Library, University of California, Berkeley, CA, USA Wilhelm Barthlott, Universität Bonn BAYER AG, Leverkusen Patrick Brown, Stanford University, CA, USA Bundeskriminalamt, Wiesbaden John Chadwick, Edinburgh, UK Culver Pictures, New York, USA Deutsches Krebsforschungszentrum, Heidelberg ISB Informationssekretariat Biotechnologie, DECHEMA e.V., Frankfurt/M. Flaskamp GmbH, Berlin Flad & Flad BioGene Communications, Eckental-Brand Fresenius Medical Care, Bad Homburg GDE Grafik Design Erdmann, Bonn GSF Forschungszentrum für Umwelt und Gesundheit, München Human Genome Sciences, Rockville, MD, USA KEGG Kyoto Encyclopedia of Genes and Genomes, Kyoto, Japan L’Usine Nouvelle, Paris Max-Planck-Institut für Biochemie, München J. Murken, E. Holinski-Feder, Medizinische Genetik LMU München Novartis Deutschland GmbH, Nürnberg RKI Robert-Koch-Institut, Berlin U.S. Department of Energy, Washington D.C., USA BMBF PUBLIK PhotoDisc Herausgeber Bundesministerium für Bildung und Forschung (BMBF) Referat Öffentlichkeitsarbeit 53170 Bonn E-Mail: [email protected] Internet: http://www.bmbf.de Die Broschüre wurde im Auftrag des Bundesministeriums für Bildung und Forschung erstellt. Der Autor trägt die Verantwortung für den Inhalt. Autor Dr. Rüdiger Marquardt, Informationssekretariat Biotechnologie, DECHEMA e.V. Stand Mai 2000 Gedruckt auf Recyclingpapier 57,59,87,107 41 64 80 10-15,17 36 22 19 35 55 39 23,49,95 20 23 24,30,40,45,46,47,52,54(u.),60,62,65,68,94 Impressum Gestaltung MPC GmbH, München Seite(n) 42-44,66,67,103 29 26,38,53 31 27 37 18 61 16,28,48,54 25,101 41 50 32 33 Biotechnologie – Basis für Innovationen Inhalt Vorwort ..............................................................................................................7 Einführung ..........................................................................................................8 1. Grundlagen .......................................................................................................10 1.1 Aus eins mach zwei, aus zwei mach vier Die molekulare Genetik als Basis der modernen Biotechnologie ..........................10 Ein Gen fährt Taxi Die Grundlagen der Gentechnik ...........................................................................14 Eile mit Weile Sicherheitsbestimmungen in der Biotechnologie .................................................17 1.2 1.3 2. Biotechnologie und moderne Medizin ..........................................................19 2.1 Ordnung ins Chaos Einsichten in den Stoffwechsel einer Zelle ..........................................................19 Außer Kontrolle Einsichten in die Entstehung von Krebs ...............................................................20 HUGO teilt die Karten aus Die Bedeutung der Genomprojekte ......................................................................22 Von geizigen Genen und Biochips Die Methode des Transcript-Imaging ...................................................................25 Vom Genom zum Proteom Proteine sind die Aktivisten der Zelle ..................................................................27 Die Gleichheit der Gene Transgene Tiere als Krankheitsmodelle ...............................................................28 Immer eine Nasenlänge voraus? Der Wettlauf mit pathogenen Keimen .................................................................29 Mit Killerzellen gegen Tumore Neue Waffen im Kampf gegen Krebs ...................................................................33 Von Differenzierung und Differenzen Zellen als potenzielle Medikamente ....................................................................34 Heilen mit Genen Die Somatische Gentherapie ...............................................................................36 Schnell und präzise Die Möglichkeiten der genetischen Diagnostik....................................................38 Ein Fingerabdruck von den Genen Jedes Genom ist einzigartig ................................................................................40 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 2.10 2.11 2.12 3. Biotechnologie und moderne Landwirtschaft ..............................................42 3.1 Ein Bakterium als Lehrmeister Moderne Züchtungsverfahren bei Pflanzen..........................................................42 Noch manche Nuss zu knacken Moderne Pflanzenzucht und neue Lebensmittel ...................................................42 Made by ... Die Kennzeichnung neuer Lebensmittel ...............................................................45 Vom Farmer zum Pharmer Biotechnologie und moderne Tierzucht ................................................................47 Vom Klonen und Klonieren Potent sein allein reicht nicht ..............................................................................48 3.2 3.3 3.4 3.5 4. Biotechnologie und vieles mehr ....................................................................52 4.1 Biotechnologie und Umwelt Statt Altlasten entlasten .....................................................................................52 Klassik und Moderne Bewährte Domänen der Biotechnologie in neuem Glanz ......................................54 Plastik und Computerchips Und immer noch Biotechnologie ..........................................................................55 4.2 4.3 5. Biotechnologie und Wirtschaft ......................................................................57 5.1 Ein Feld für findige Firmen Das Entstehen einer neuen Branche ....................................................................57 Die Claims werden abgesteckt Patente auf biotechnische Erfindungen ...............................................................60 5.2 6. Biotechnologie und Gesellschaft ..................................................................64 6.1 Wer nicht wagt ... Risiken und ihre Wahrnehmung ...........................................................................64 Kreuz und quer? Gene gehen auf Wanderschaft ............................................................................66 Prognosen sind schwierig ... ... besonders wenn sie in die Zukunft gerichtet sind.............................................67 6.2 6.3 Glossar ..............................................................................................................70 7. Biotechnologie und Markt Ausgewählte Produkte der Biotechnologie ..........................................................78 Vorwort D ie Globalisierung der Märkte mit einer spürbaren Verschärfung des internationalen Wettbewerbs ist die größte Herausforderung für unsere Wirtschaft zu Beginn des 21. Jahrhunderts. Ein immer größer werdender Teil der globalen Produktion wird auf dem Weltmarkt gehandelt. Dies gilt im besonderen Maße für den Pharma-, Chemie- und den Agrarsektor. Multinationale Unternehmen sind bestrebt, an allen regionalen Märkten der Welt durch eigene Produktionsstätten vertreten zu sein. Der Produktion folgt die Forschung. Dies ist nicht als Resultat ungünstiger inländischer Standortbedingungen zu interpretieren. Es wird darauf ankommen, auch in Deutschland Bedingungen zu sichern und auszubauen, die ausländische Investitionen in Produktion, Forschung und Entwicklung anziehen. Dazu zählen – neben anderen Rahmenbedingungen – eine hoch differenzierte und leistungsfähige Forschungslandschaft, ein guter Bildungsstand der Bevölkerung, hochqualifizierte Arbeitskräfte mit Schlüsselqualifikationen für den Innovationsprozess und ein positives Gründungsklima. Globalisierung bedeutet aber auch: Neue Chancen, neue Märkte, neue Produkte durch Förderung von Wettbewerb und internationaler Arbeitsteilung. Die Biotechnologie wird dabei weltweit erheblich zum Strukturwandel beitragen. Die Entwicklung neuer Methoden und Verfahren in der Biomedizintechnik, der Biomaterialforschung, der Pharmazeutischen und Chemischen Industrie, der Lebensmittelindustrie, bei der Schadstoffbekämpfung, Müllbeseitigung und Abwasserreinigung, die Erforschung neuer Energiequellen und nachwachsender Rohstoffe – um nur einige Anwendungsfelder zu nennen – wird neue Arbeitsplätze entstehen lassen. Speziell in der sogenannten „grünen“ Gentechnik, also im Bereich der Lebensmittelproduktion und in der Landwirtschaft, muss allerdings noch viel Aufklärungsarbeit geleistet werden. Studien belegen, dass vermehrtes Wissen über Gentechnik nicht zwangsläufig zu besserer Akzeptanz führt. Bei größerem Wissen erfolgt die Bewertung jedoch differenzierter. In der Regel wird die Biotechnologie vor allem in jenen Bereichen positiv eingeschätzt, wo ein tatsächlicher Nutzen (z.B. für die Gesundheit und die Umwelt) unmittelbar ersichtlich und die Wahlfreiheit der Verbraucherinnen und Verbraucher sichergestellt ist. Die Kennzeichnung gentechnisch veränderter Produkte ist dabei eine Voraussetzung für eine freie und bewußte Wahl eines Produktes und damit für dessen Akzeptanz. Die Bundesregierung wird sich an diesem Dialog – unter Berücksichtigung der gebotenen ethischen, umweltschonenden und rechtlichen Aspekte – beteiligen. Die vorliegende Broschüre stellt hierzu einen Beitrag dar. Edelgard Bulmahn Bundesministerin für Bildung und Forschung 7 Einführung D ie Biotechnologie hat in den vergangenen drei Jahrzehnten eine erstaunliche Renaissance erfahren. Biotechnische Anwendungen haben den Menschen zwar schon seit Jahrtausenden begleitet und ihn mit Nahrung, Kleidung und Behausung versorgt. Sie waren damit eine wichtige Grundlage nicht zuletzt auch für seine kulturelle Entwicklung. Doch erst mit dem wachsenden Wissen um den zellulären Aufbau der Organismen und um die Verwertbarkeit ihrer Stoffwechselprodukte entwickelte man auch technische Verfahren, die nicht mehr in erster Linie landwirtschaftlich ausgerichtet waren. Dazu gehört z.B. die Herstellung von Antibiotika durch eine kontrollierte Züchtung von Mikroorganismen. Neben Antibiotika sind auch viele andere Produkte des mikrobiellen Stoffwechsels interessant, z.B. Substanzen wie Zitronensäure, Aminosäuren oder Vitamine. Selbst hoch entwickelte Organismen wie die Säugetiere bieten sich der Biotechnologie als Reservoir für die Gewinnung interessanter Stoffe an. Denken wir in diesem Zusammenhang nur an die klassische Isolierung von Insulin aus den Bauchspeicheldrüsen von Rindern und Schweinen. Schließlich haben sich mit der Verfügbarkeit neuer Methoden, insbesondere der Gentechnik, ganz neue Einsichten und Möglichkeiten eröffnet. Dieses häufig als „moderne Biotechnologie“ umschriebene Forschungs- und Anwendungsfeld entstand in der Mitte des letzten Jahrhunderts und hat immer schneller an Bedeutung gewonnen. Von vielen Wissenschaftlern und Wirtschaftsexperten wird die Biotechnologie daher als Schlüsseltechnologie für die nächsten Jahrzehnte bezeichnet. Sie hat uns bereits eine Fülle an neuem Wissen und zahlreiche neue Produkte gebracht. Über ihre klassischen Domänen hinaus hat sich die Biotechnologie neue kommerzielle Anwendungen erobert und zieht innovative Wissenschaftler aus vielen unterschiedlichen Bereichen an. Diese Entwicklung hat auch dazu geführt, dass die Definition der Biotechnologie immer mehr an Schärfe verloren hat. Von der Europäischen Föderation Biotechnologie (EFB) wurde noch Ende der 70er Jahre eine allgemein akzeptierte Definition gegeben, die Biotechnologie als rein anwendungsorientiert beschrieb. Sicherlich ist und bleibt die Biotechnologie anwendungsorientiert, aber sie hat sich auch in viele neue, forschungsorientierte Felder hineinentwickelt. Diesen vielen unterschiedlichen Facetten der Biotechnologie kann man nur mit einer breiteren Definition gerecht werden. Ganz allgemein lässt sie sich beschreiben als den Umgang mit biologischen Systemen und biologischer Information in Forschung und Anwendung. Gerade an den modernen Anwendungen der Biotechnologie entzünden sich immer wieder heftige Diskussionen. Aus neuen Erkenntnissen entwickeln sich für manche allzu schnell neue Handlungsoptionen. Diese Handlungsoptionen können als Chance, aber auch als Belastung empfunden werden. Der Umgang mit dem neuen Wissen ist also nicht immer einfach und seine Anwendung ist nicht immer unumstritten. Im medizinischen Sektor ist die Biotechnologie allerdings fest etabliert und anerkannt. Medikamente aus biotechnischer Produktion erweitern heute ganz selbstverständlich die therapeutischen Möglichkeiten der Medizin. Neue Heilverfahren, die sich aus den neuen Erkenntnissen der Biotechnologie ergeben, werden weltweit erprobt. Verbesserte Diagnosen weisen den Weg zu einer 8 individualisierten, auf den einzelnen Patienten zugeschnittenen Therapie. Andererseits stellt uns der medizinische Fortschritt mit seinem Wissenszuwachs auch vor neue Herausforderungen, mit denen wir besonnen umgehen müssen. Es sei hier nur auf den Umgang mit dem Wissen verwiesen, das sich aus den verschiedenen Genomprojekten ergibt. Besonders heftige Auseinandersetzungen lösen die biotechnischen Neuerungen im Bereich der Landwirtschaft aus. Die Produkte erscheinen vielen angesichts des Überflusses in den Industrienationen als unnötig. Weder der Wissenschaft noch der Industrie ist es bisher gelungen, die Vorteile der neuen biotechnischen Produkte auch für die breite Bevölkerung erfahrbar und nachvollziehbar zu machen. Die hier im Zusammenhang mit der Biotechnologie gesehenen Problemstellungen werden oft auch zum Anlass genommen, um unser Verhältnis zur belebten Natur insgesamt zu diskutieren und unterschiedliche Lebensentwürfe einander gegenüberzustellen. Über die wissenschaftlichen Herausforderungen hinaus bietet die Biotechnologie deshalb noch immer Stoff für eine breite gesellschaftliche Diskussion. Diese Broschüre soll auch dem Nichtfachmann einen Einstieg in die aktuellen Entwicklungen der Biotechnologie erlauben. Sie widmet sich dabei den wissenschaftlichen Grundlagen ebenso wie einer Diskussion aktueller und potenzieller Anwendungen. Am Ende der Broschüre werden außerdem die wichtigsten Produkte zusammengestellt, die unter Verwendung der neuen Verfahren bereits hergestellt werden. 9 Grundlagen 1. Grundlagen 1.1 Aus eins mach zwei, aus zwei mach vier Die molekulare Genetik als Basis der modernen Biotechnologie Die DoppelhelixStruktur der DNA ist zum Symbol für die moderne Biotechnologie geworden. Schon die ersten biotechnischen Anwendungen griffen auf die Stoffwechselleistungen von Tieren, Pflanzen und Mikroorganismen zurück. Dabei entwickelte sich aus einer eher zufälligen eine mehr und mehr systematisierte und optimierte Nutzung. Tiere und Pflanzen wurden schon bald gezielt gezüchtet. Für ein detaillierteres Verständnis der mikrobiellen Stoffwechselleistungen musste aber erst noch eine ganze Reihe wichtiger Entdeckungen und Erfindungen in ganz unterschiedlichen Disziplinen gemacht werden. Man denke nur an das Mikroskop, mit dessen Hilfe die Mikroorganismen erstmals sichtbar wurden. Immer tiefer drang die Wissenschaft schließlich in die Zellen hinein und zerlegte sie in ihre Einzelbausteine. Das Bestreben, auch die Regeln zu verstehen, nach denen die Merkmale und das Leistungsvermögen von Organismen auf die Nachkommen vererbt werden, führte schließlich zu einem Wissenschaftszweig, den wir heute als Genetik bezeichnen. Die Entwicklung der klassischen Genetik ist unmittelbar mit dem Namen Gregor Mendel verknüpft. Mendel hat als Erster erkannt, dass die Eigenschaften von Organismen nach bestimmten Mustern auf die Nachkommen vererbt werden. Er hat daraus den kühnen Schluss gezogen, dass diesen Eigenschaften „Erbfaktoren“ zugrunde liegen, die über die Keimzellen weitergegeben und neu kombiniert werden. Es hat allerdings bis in die Mitte des 20. Jahrhunderts gedauert, bis den von Mendel vermuteten 10 Erbfaktoren eine stoffliche Basis zugeordnet werden konnte. Avery und seine Mitarbeiter wiesen durch ihre Experimente im Jahr 1944 erstmals nach, dass Desoxyribonukleinsäure für die Übertragung vererbbarer Eigenschaften verantwortlich ist. Diese chemische Substanz war bereits im Jahr 1868 von Friedrich Miescher aus weißen Blutkörperchen isoliert und beschrieben worden. Aber erst mit der Entdeckung von Avery rückte sie in den Mittelpunkt wissenschaftlichen Interesses. Durch viele andere Experimente wurde der Zusammenhang von vererbbaren Eigenschaften und Desoxyribonukleinsäure rasch bestätigt. Allerdings konnten diese Versuche zunächst nur mit einfachen Organismen, meist Mikroorganismen wie Bakterien und Hefen, durchgeführt werden. Unklar blieb daher, ob die Desoxyribonukleinsäure, die international mit DNA (für englisch: Deoxyribonucleic acid) abgekürzt wird, auch bei höheren Organismen als einziger Träger der Erbinformation fungiert. Und wenn ja, wie sollte man dann die gewaltigen Unterschiede zwischen den verschiedenen Arten erklären? Man wusste zu diesem Zeitpunkt schon, dass die DNA aus den unterschiedlichsten Quellen – vom Mikroorganismus bis zum Menschen – chemisch immer gleich aufgebaut ist. Sie enthält nur wenige, exakt beschreibbare Grundbausteine, so genannte Nukleotide. Wie sollten diese immer gleichen Grundbausteine für die Vererbung von so dramatisch unterschiedlichen Merkmalen verantwortlich sein? Der Grundstein für die Beantwortung dieser Fragen wurde durch die Aufklärung der DNA-Struktur gelegt. Die Interpretation der Strukturdaten gelang den Wissenschaftlern James D. Watson und Francis Crick im Jahr 1953. Dies läutete gemeinsam mit den zuvor erwähnten Experimenten von Avery das Zeitalter der modernen Genetik ein und sollte sich als gewaltiger Schub für die Biotechnologie entpuppen. Grundlagen Erklärung der DNA-Struktur Die Strukturdaten belegten, dass in der DNA eine strikte Ordnung eingehalten wird. Die chemischen Grundkomponenten bilden vier zentrale Grundbausteine aus, die man Nukleotide nennt. Diese Nukleotide sind in einer schier endlosen Kette und in einer scheinbar wahllosen Abfolge miteinander verbunden. Man denke sich ein Seil, aus dem in regelmäßiger Abfolge rote, grüne, blaue oder gelbe Stäbe herausstehen, wobei die jeweilige Farbe zufällig ist. Entscheidend ist nun, dass ein DNA-Molekül aus zwei solcher „Seile“ besteht. Man spricht deshalb auch von einem Doppelstrang. Die „Seile“ haben zueinander eine genau definierte Anordnung. Man kann gedanklich das eine Seil so auf den Boden legen, dass alle Stäbe in eine Richtung zeigen. Legt man jetzt das zweite Seil derart daneben, dass die Enden der Stäbe aneinander grenzen, dann muss ein exakter Farbcode eingehalten werden. Dort, wo aus dem einen Seil ein roter Stab heraussteht, muss aus dem anderen Seil ein grüner herausstehen. Dort, wo aus dem einen Seil ein gelber Stab heraussteht, muss aus dem anderen ein blauer herausstehen. Um das Gedankenexperiment zu vervollständigen, kann man sich am Ende eines jeden Stabes eine Art gerichtete Punktladung vorstellen. Dadurch sollen sich die roten und grünen bzw. gelben und blauen Stäbe gegenseitig anziehen. Selbst wenn die einzelnen Anziehungskräfte nur gering sind, wird durch ihre Addition ein sehr fester Zusammenhalt der beiden Seile resultieren. Genau das ist in der DNA – vermittelt durch so genannte Wasserstoff-Brückenbindungen – der Fall. Wenn wir in unserem Gedankenexperiment jetzt eines der Seile ergreifen und vom Boden hochheben, dann wird das andere mit angehoben. Die rotgrünen bzw. gelbblauen Paare von Stäben sind zwischen den beiden Seilen angeordnet wie die Sprossen einer Strickleiter. Mit dem großen Unterschied allerdings, dass diese Sprossen nicht durchgängig sind, sondern in der Mitte eine Art Sollbruchstelle haben. Als Fallreep wäre eine solche Strickleiter denkbar ungeeignet. Der DNA-Doppelstrang verläuft auch nicht etwa geradeaus wie ein Fallreep, das an der Bordwand eines Schiffes hängt. Vielmehr ist er in sich verdreht und besonders in höheren Organismen durch Wechselwirkung mit unterschiedlichen Proteinen sehr stark komprimiert. Die strukturellen Besonderheiten der DNA wurden sofort als zentrale Grundlage der Vererbung erkannt. Die DNA liegt als ein Doppelstrang vor, dessen Einzelstränge über eine Vielzahl von Wechselwirkungen zusammengehalten werden. Und das Entscheidende dabei: Trennt man die beiden Stränge voneinander, dann kann jeder Einzelstrang durch sukzessives Aneinanderfügen von Grundbausteinen wieder zu einem Doppelstrang ergänzt werden. Aufgrund vorgegebener strikter Paarungsregeln muss dieser Doppelstrang wieder exakt dem Ausgangs-DNA-Molekül entsprechen. Aus eins mach zwei, aus zwei mach vier... Wenn sich eine Zelle teilt, passiert genau das oben Beschriebene. Die DNA-Doppelhelix wird aufgetrennt und zu jedem Einzelstrang wird der Gegenstrang ergänzt. Wenn die beiden identischen DNA-Moleküle in der Zelle vorliegen, kann an die Tochterzellen exakt die gleiche Erbinformation weitergegeben werden. Und so weiter und so weiter. Aus vier mach acht, aus acht mach sechzehn... Mutationen Ganz exakt ist die Natur bei der Weitergabe genetischer Information allerdings nicht. Wir wissen heute – nicht zuletzt durch die Untersuchungen und Überlegungen des deutschen Nobelpreisträgers Manfred 11 Die Regeln der Paarbildung erlauben eine identische Verdopplung der DNA: Adenin paart mit Thymin, Guanin mit Cytosin. Jahren zu klären und stellte sich als sehr vertraut heraus. Denn die DNA verwendet die Nukleotide, die wir als Grundbausteine der DNA kennen gelernt haben, wie die Buchstaben eines Alphabets. Damit kommt der scheinbar so wahllosen Abfolge der Nukleotide in einem DNA-Strang auf einmal eine ganz entscheidende, ja die entscheidende Bedeutung zu. Reissverschlussprinzip: Die Information der DNA wird abgerufen. Eigen –, dass sie bei der Weitergabe der Erbinformation immer auch einen gewissen Anteil an Fehlern, so genannten Mutationen, zulassen muss. Denn nur so können neue, veränderte Eigenschaften entstehen. Schon Darwin hatte im 19. Jahrhundert postuliert, dass vererbbare Eigenschaften einer natürlichen Auslese unterliegen, der Selektion. Gäbe es in diesen vererbbaren Eigenschaften keine Veränderungen, dann wären sie immer gleich und es könnte nichts selektiert werden. Die Natur balanciert mit der Häufigkeit von Mutationen auf einem sehr schmalen Grat. Auf der einen Seite droht beim Fehlen selektierbarer Individuen der Untergang ganzer Arten, wenn sich drastische Veränderungen der Lebensbedingungen ergeben. Als Beispiel wird hier gerne das Aussterben der Dinosaurier angeführt. Auf der anderen Seite droht beim Auftreten zu vieler veränderter Individuen das Verschwinden der arteigenen Merkmale. Bei zu vielen veränderten Individuen wäre kaum noch zu klären, was nun eigentlich verändert und was unverändert ist. Das Leben bietet sich uns in seinen heutigen Erscheinungsformen deshalb so dar, weil sich im Laufe der Evolution ein bestimmtes Optimum in der Häufigkeit von Mutationsereignissen eingestellt hat. Das Prinzip der Weitergabe genetischer Information an die Nachkommen hatte sich aus der Struktur der DNA also elegant ableiten lassen. Aber wie ist denn nun die Erbinformation in der DNA gespeichert? Man kann sich vorstellen, dass die Wissenschaftler sehr intensiv um die Aufklärung dieser spannenden Frage gerungen haben. Das Bild begann sich in den 60er 12 Der genetische Code Mit den vier unterschiedlichen Nukleotiden in der DNA stehen zunächst einmal nur vier Buchstaben zur Verfügung. Zwar kann man aus vier Buchstaben, z.B. den Buchstaben l, e, i und b, unterschiedliche Wörter formen. Denken wir an die Wörter Beil, lieb, Liebe, Bibel und noch ein paar mehr. Aber man würde wohl keine besonders ausdrucksvolle Sprache entwickeln können, die auf nur vier Buchstaben beruht. Auch die Natur braucht ein paar Buchstaben mehr, um ihre vielfältigen Inhalte zu definieren. Sie bedient sich hierzu eines Tricks. Nicht jedes einzelne Nukleotid lässt sie als Buchstaben gelten. Vielmehr müssen drei Nukleotide aufeinander folgen, um einen aussagekräftigen Buchstaben zu ergeben. Je nach Art und Abfolge der jeweiligen drei Nukleotide resultieren daraus unterschiedliche Buchstaben. Weil ein solcher Buchstabe aus jeweils drei Nukleotiden besteht, bezeichnet man ihn als Triplett. Durch diesen einfachen Kunstgriff stehen jetzt 64 Tripletts zur Verfügung. So viele Buchstaben benötigen wir in unserer Sprache längst nicht, um zu einer praktisch unerschöpflichen Vielfalt an Aussagen zu gelangen. Uns genügen 26. Auch die Natur bedient sich an anderer Stelle einer Sprache, die sogar nur auf 20 Buchstaben zurückgreift. Auf diese zweite Sprache treffen wir bei den unersetzlichen „Funktionsträgern“ der Zelle, den Grundlagen Eiweißstoffen oder Proteinen. Eiweißstoffe setzen sich aus zwanzig verschiedenen Einzelkomponenten, den Aminosäuren, zusammen. In der DNA sind die Bauanleitungen für diese Eiweißstoffe verschlüsselt. Einem Triplett in der DNA, also einer Abfolge von jeweils drei Nukleotiden, ist eine bestimmte Aminosäure im korrespondierenden Eiweiß zugeordnet. Aufeinander folgende Tripletts in der DNA lassen damit eine eindeutige Vorhersage auf die Abfolge von Aminosäuren in einem Protein zu. Die Anordnung der Tripletts in der DNA legt also die Abfolge von Aminosäuren in Proteinen eindeutig fest. Und diese Abfolge von Aminosäuren wiederum entscheidet darüber, welche Funktion von einem Protein ausgeübt wird. Dies ist der entscheidende Einblick, den die moderne Genetik gewonnen hat. Wegen der unterschiedlichen Anzahl von Tripletts und Aminosäuren ist die Zuordnung nur in der eben genannten Richtung eindeutig. Umgekehrt können einer Aminosäure bis zu sechs verschiedene Tripletts zugeordnet sein. Proteine können aus einer stark variierenden Anzahl von Aminosäuren bestehen. Für jedes einzelne Protein ist diese Anzahl allerdings genau festgelegt. Beispielsweise besteht das Protein Insulin aus zwei sehr kurzen Ketten von Aminosäuren, die eine ist 21, die andere ist 30 Aminosäuren lang. Diese zwei Ketten erkennen sich und bilden gemeinsam das funktionale Insulin-Molekül. Dagegen besteht das Protein Faktor VIII, das bei der Blutgerinnung eine wichtige Rolle spielt, aus nur einer Kette, aber immerhin aus 2.331 Aminosäuren. Außerdem ist es noch mit Zuckerresten verknüpft. Es gibt bei Proteinen also ganz unterschiedliche Größen und Zusammensetzungen. Wenn Proteine eine definierte Größe haben, dann müssen die Ketten von Aminosäuren, aus denen die Proteine aufgebaut sind, einen definierten Anfang und ein definiertes Ende haben. Man kann sich daher fragen, ob auch der Anfang und das Ende einer Aminosäurekette von der DNA festgelegt werden. Das ist tatsächlich so. Die DNA verfügt mit ihren 64 Tripletts über mehr Buchstaben als sie braucht, um die 20 Aminosäuren der Proteine zu bestimmen. Teilweise benutzt sie ja sechs verschiedene Tripletts für nur eine Aminosäure. Daher ist es kein Problem, mit einigen ausgewählten dieser Tripletts statt einer konkreten Aminosäure den Anfang oder das Ende der Aminosäurekette zu signalisieren. Von der DNA zum Protein führt in der lebenden Zelle kein direkter Weg. Stattdessen wird die Information der DNA auf ein Botenmolekül übertragen, die so genannte Boten-RNA oder mRNA. Von diesem Botenmolekül wird die Information dann dorthin transportiert, wo sie gebraucht wird. Und gebraucht wird sie als Bauanleitung dort, wo die Proteine aus den einzelnen Aminosäuren zusammengesetzt werden. Dies geschieht in der Zelle an spezialisierten Strukturen, den so genannten Ribosomen. Das eingesetzte Botenmolekül ist der DNA eng verwandt aber beweglicher, weil es nur einzelsträngig und viel kürzer ist als die DNA. Zur Synthese des Botenmoleküls wird die DNA im Bereich eines Gens an ihren „Sollbruchstellen“ geöffnet, ähnlich wie ein Reißverschluss. Die Information wird dadurch zugänglich und kann auf das Botenmolekül übertragen werden. Von diesem wird sie Wie am Fließband: An den Ribosomen wird die genetische Information in die Aminosäuresequenz von Proteinen übersetzt. dann zu den Ribosomen transportiert und dort bei der Proteinsynthese verwendet. In der DNA wird nicht jedes Nukleotid allein als Buchstabe verwendet. Vielmehr werden drei aufeinander folgende Nukleotide zu einem Buchstaben zusammengefasst. Auch wenn dieser Kunstgriff an sich einfach erscheint, so war doch eine ganze Menge an 13 Grundlagen Präzisionsarbeit: Restriktionsenzyme zerlegen die DNA in handhabbare Bruchstücke. intelligenten Überlegungen und Experimenten notwendig, um diesen genetischen Code zu knacken. Zusammen mit vielen anderen Wissenschaftlern haben Marshall Nirenberg und H. Gobind Khorana dadurch einen weiteren Meilenstein in der Entwicklung der modernen Genetik geschafft. Weil die Buchstaben in der DNA aus drei aufeinander folgenden Nukleotiden bestehen, werden sie auch als Tripletts bezeichnet. Die Reihenfolge der Tripletts in der DNA bestimmt letztlich über Gestalt und Funktion der Eiweißmoleküle in einer Zelle. Der zugrunde liegende Mechanismus ist recht komplex, mittlerweile aber genauestens verstanden. In der DNA ist festgelegt, welche Eiweißmoleküle eine Zelle bilden kann. Dies ist sicher nicht ihr einziger Informationsgehalt. Nach unserem heutigen Wissensstand ist es aber die wichtigste Information, die von der DNA bei der Vererbung weitergegeben wird. Nach diesem Parforce-Ritt durch die Erkenntnisse moderner Genetik haben wir bereits das Rüstzeug erworben, um den zentralen Begriff der Genetik zu verstehen: das Gen. Unter einem Gen versteht man einen Abschnitt auf der DNA, der ein Eiweißmolekül bestimmter Größe und Funktion definiert. Wenngleich der Begriff des Gens damit ein wenig eng gefasst ist, trifft er doch den Kern der Sache. So wie die Struktur der DNA bei allen Lebewesen gleich ist, so ist auch das Prinzip der Informationsspeicherung und Umsetzung im Laufe der Evolution wenig verändert worden. Zwar haben sich im Detail 14 einige nicht unerhebliche Wandlungen vollzogen, doch bleiben diese als Variationen eines Themas klar erkennbar. Das heißt: Genetische Information wird im Prinzip von allen Lebewesen auf die gleiche Weise vererbt. Sie wird außerdem von allen Lebewesen auf die gleiche Art und Weise umgesetzt. Hinter diesen Erkenntnissen verbirgt sich nun aber nichts Geringeres als die Voraussetzung für das, was wir heute als Gentechnik bezeichnen. Gene können aus beliebigen Organismen isoliert und von beliebigen anderen Organismen in das entsprechende Eiweißmolekül umgesetzt werden. 1.2 Ein Gen fährt Taxi Die Grundlagen der Gentechnik Die Gentechnik hat sich nicht etwa zielgerichtet entwickelt. Die Kenntnis der molekularen Zusammenhänge zwischen DNA und Eiweißmolekülen war nur ein Mosaikstein, der für die eher zufällige Entwicklung der Gentechnik nötig war. Zwei weitere sollen hier noch kurz Erwähnung finden. Die DNA ist ein in molekularen Dimensionen riesiges Molekül. Beim Menschen schätzt man die Länge der Strickleiter auf rund drei Milliarden „Sprossen“. Die Zahl seiner Gene wurde lange Zeit auf etwa 100.000 geschätzt und mit Auswertung des Anfang 2000 auf vollen Touren laufenden Genomprojektes – siehe Kapitel 2.3 – auf rund 140.000 erhöht. Bei dieser Größe wundert es nicht, dass die genetische Gesamtinformation, das Genom, in einzelne Portionen aufgeteilt ist. Diese sind uns als Chromosomen bestens bekannt (dass Chromosomen nicht nur aus DNA bestehen, sondern viel komplexer aufgebaut sind, muss hier nicht weiter interessieren). Für die Gentechnik sind diese Portionen aber immer noch viel zu groß. Will man bestimmte Gene von einem Organismus auf einen anderen übertragen, muss man die DNA erst noch in sehr viel kleinere Stücke zerlegen. Dafür braucht man geeignete Werkzeuge. Dankenswerterweise werden uns diese wieder einmal von der Natur selbst zur Verfügung gestellt. Nur finden muss man sie. Machen wir einen kurzen Ausflug in die Bakteriengenetik. So wie menschliche Zellen von Viren befallen werden können, so werden auch viele Bakterien von Viren attackiert, den Bakteriophagen. Manche Bakterien verfügen nun über einen interessanten Mechanismus, der sie vor Angriffen solcher Bakterio- Grundlagen phagen schützt. Sie spalten einfach die Erbinformation, die von den Bakteriophagen bei der Attacke in die Bakterienzellen eingeschleust wird, in kleinere Fragmente. Die Untersuchung dieses Phänomens führte zur Entdeckung von Enzymen, die DNA an ganz genau definierten Stellen spalten können. Man bezeichnet diese Enzyme als Restriktionsenzyme. Aus dem ursprünglich riesigen DNA-Molekül werden dadurch in reproduzierbarer Weise kleine, handhabbare Fragmente. Damit war eine weitere wichtige Voraussetzung für die Gentechnik geschaffen. Heute verfügen die Gentechniker über ein großes Repertoire an Enzymen, die DNA zerlegen, zusammenfügen, auf- und abbauen können. Diese Reaktionen lässt man dann meist nicht mehr in Zellen ablaufen, sondern arbeitet mit den isolierten Komponenten außerhalb der Zellen in kleinen Reaktionsgefäßen oder, wie die Fachleute sagen, in vitro. Sehr hilfreich sind auch kleine DNA-Portionen, die man häufig in Bakterien antrifft. Diese so genannten Plasmide werden von Gentechnikern gerne verwendet, weil sie über interessante und hilfreiche Eigenschaften verfügen. Sie erlauben es, fremde DNA in Zellen hineinzubringen und dort stabil zu vermehren. Daher werden Plasmide häufig auch als Gen-Taxis bezeichnet. Plasmide als Werkzeuge der Gentechnik Die Plasmide sind kleine, selbstständige Einheiten genetischer Information, die unabhängig vom eigentlichen Genom in einer Bakterienzelle existieren können. Dazu bringen sie eine besonders wertvolle Eigenschaft mit, und zwar die, von Bakterienzellen auf die Nachkommen vererbt zu werden. Der Teilung einer Bakterienzelle geht die Verdopplung der genetischen Information voraus, damit beide Tochterzellen später auch wissen, was sie zu tun haben. Der bereits kurz erwähnte Mechanismus der DNA-Verdopplung wird von der Zelle dabei genauestens kontrolliert. Um diese Kontrolle zu ermöglichen, gibt es auf der DNA nur wenige Stellen, von denen aus die Verdopplung starten kann. Das Vorhandensein mindestens eines solchen Startpunkts ist andererseits zwingend erforderlich, wenn die DNA verdoppelt werden soll. Für die Gentechniker gibt es daher zwei Möglichkeiten, wenn sie fremde DNA in einer Zelle und deren Nachkommen erhalten möchten. Entweder wird die fremde DNA mit der Gesamt-DNA der Wirtszelle verbunden und von dieser dann als Einheit behandelt und vererbt. Oder man platziert die fremde DNA wie einen winzigen Satelliten neben das Genom der Wirtszelle. In diesem Fall muss dann aber dafür gesorgt sein, dass auch ein Startpunkt für die Verdopplung der fremden DNA vorhanden ist. Hier kommen die Plasmide ins Spiel. Plasmide verfügen oft nur über wenige Gene, beherrschen dafür aber die eigene Verdopplung besonders gut. Sie begnügen sich häufig nicht damit, so wie das bakterielle Genom in nur einer Ausfertigung in der Zelle vorzuliegen. Es können vielmehr bis zu mehrere Hundert solcher Moleküle in einer Zelle vorhanden sein. Bei der Teilung einer Bakterienzelle werden die Plasmide mehr oder weniger gleichmäßig auf die beiden Tochterzellen verteilt. Wenn man es also schafft, die fremde DNA mit einem solchen Plasmid zu verbinden, dann hat man damit eine weitere Möglichkeit, die fremde DNA in einer Bakterienzelle und ihren Nachkommen zu erhalten. Wie das im Einzelnen geschieht, wird in der Abbildung S.17 genauer erläutert. Noch eine andere wichtige Eigenschaft bringen viele Plasmide mit. Sie tragen Resistenzgene, die dafür sorgen, dass ihre Wirtszellen gegen bestimmte Antibiotika unempfindlich werden. An dieser Eigenschaft kann man daher Bakterien leicht erkennen, die ein entsprechendes Plasmid beherbergen. Hier wird die schon zitierte harte Auslese, die Selektion, von den Wissenschaftlern gezielt eingesetzt. Wird ein bestimmtes Antibiotikum dem Medium zugegeben, in dem die Bakterien wachsen, dann überleben nur die mit einem entsprechenden Plasmid und Resistenzgen. Wenn man ein solches Plasmid mit einem interessant erscheinenden Gen aus anderer Quelle verbindet, dann hat man die Einheit vor sich, mit der Gentechniker tagtäglich umgehen. Die verwendeten Plasmide sind dabei mittlerweile auf die speziellen Bedürfnisse der Gentechnik zugeschnitten worden. Nun muss die außerhalb der Zellen neu zusammengefügte DNA – die rekombinierte oder rekombinante DNA – in die gewünschten Zielzellen eingeschleust werden. Und das kann sich durchaus als Problem erweisen. Wie sich herausstellte, hat Avery bei der Entdeckung der DNA als Träger der Erbinformation ziemlich viel Glück gehabt. Er arbeitete mit Bakterien, die über eine natürliche Fähigkeit zur Aufnahme von DNA verfügen. Diese Fähigkeit haben nur wenige Bakterien – und andere Organismen schon 15 Auch Plasmide können mit Restriktionsenzymen an definierten Stellen geöffnet werden. Grundlagen Hilfreicher Winzling: Ein Plasmid (Pfeil) ist sehr klein im Verhältnis zum Genom einer Bakterienzelle. gar nicht. Man muss sich daher einiges einfallen lassen, um die außerhalb der Zellen zusammengebaute DNA in die Zielzellen hineinzubekommen. Hierfür werden ausgeklügelte Verfahren eingesetzt. Besonders beliebt ist heute die Elektroporation, bei der die Zielzellen in einem elektrischen Feld mit der DNA zusammengebracht werden. Daran war zu Beginn der Gentechnik freilich noch längst nicht zu denken. Man hatte aber bereits in der klassischen Genetik einiges über Systeme des DNA-Transfers gelernt. Auch die Natur verfügt über eine ganze Reihe von Möglichkeiten, um DNA zwischen – meist verwandten – Organismen auszutauschen. Daher konnte man bereits Anfang der 70er Jahre bestimmte Bakterien so behandeln, dass sie zur Aufnahme externer DNA fähig waren. Die Bühne für den ersten richtigen gentechnischen Versuch war frei. Sollte es tatsächlich möglich sein, DNA aus unterschiedlichen Quellen miteinander zu verbinden und dieses gezielt hergestellte DNA-Molekül dann von Bakterienzellen vermehren und vererben zu lassen? Zu den Wissenschaftlern, die sich diese Frage stellten, gehörten auch Stanley Cohen und Herbert Boyer. Die Antwort, die sie durch ihre Experimente erhielten, war positiv. Eine Bakterienzelle unterscheidet ein natürlich vorkommendes Plasmid nicht von einem, in das die Forscher ein fremdes Stück DNA eingebaut haben. Solange die normalerweise vorhandenen Funktionen des Plasmids nicht beeinträchtigt sind, wird auch das gentechnisch veränderte Plasmid stabil weitervererbt. Und mehr noch. Wenn sich auf dem künstlich eingefügten DNA-Fragment ein funktionsfähiges Gen befindet, dann wird dieses von der Bakterienzelle auch in das zugehörige Eiweiß umgesetzt. Ganz egal, woher das fremde Gen stammt. Allerdings mit gewissen anderen Einschränkungen. 16 Einschränkungen bei der Umsetzung genetischer Information Wir hatten ein Gen definiert als Abfolge von Tripletts in der DNA, die zur Synthese eines Proteins definierter Größe und Funktion führt. Diese Abfolge von Tripletts wird häufig auch als Strukturgen bezeichnet. Im Aufbau dieses Strukturgens gibt es einen wesentlichen Unterschied zwischen Bakterien – den so genannten Prokaryonten – und den meisten anderen Organismen – den höher entwickelten Eukaryonten. Bei Bakterien beginnt die Abfolge der Tripletts an einem bestimmten Punkt der DNA und läuft dann quasi ohne Strich und Komma bis zum Ende des Gens durch. Bei Eukaryonten hingegen finden sich innerhalb eines Gens oft lange Einschübe, die mit dem entstehenden Protein nichts zu tun haben. Eine Eukaryontenzelle macht sich die Mühe, das ganze Gen mitsamt dieser Einschübe zunächst in das Botenmolekül zu übersetzen und die Einschübe erst dann aus dem Botenmolekül zu entfernen. Für die Wissenschaft ist das ein interessantes, für die Bakterien ein unlösbares Problem. Eine Bakterienzelle kennt solche Einschübe ja nicht und behandelt sie ganz so, als müssten sie bei der Synthese des Proteins berücksichtigt werden. Das kann natürlich nicht gut gehen und führt – wenn überhaupt – zu völlig unsinnigen Eiweißmolekülen. Hier müssen die Gentechniker den Bakterien zur Hilfe kommen. Dazu bedienen sie sich wieder einmal weitestgehend der von der Natur zur Verfügung gestellten Instrumente. Sie isolieren zunächst einmal die Botenmoleküle, aus denen eine Zelle bereits die Einschübe herausgeschnitten hat. Dann benutzen sie die in diesen Botenmolekülen enthaltene Information, um daraus eine Art Minigen ohne Einschübe zu rekonstruieren. Die entsprechenden Enzyme finden sich wie angedeutet in der Natur. Solch ein Minigen ohne Einschübe kann nun auch wieder von Bakterien richtig in Protein umgesetzt werden. Den Weg über diese so genannten cDNA-Gene müssen die Gentechniker praktisch immer dann beschreiten, wenn sie Gene aus höheren Organismen in Bakterien für die Synthese des entsprechenden Eiweißstoffes verwenden wollen. Dieses Vorgehen hat den Vorteil, dass aus den ursprünglich zum Teil sehr großen Genen kleinere und besser handhabbare DNA-Fragmente werden. Problematisch ist gelegentlich, dass manchen Aminosäuren unterschiedliche Tripletts zugeordnet sein können. Nun nutzen nicht alle Organismen alle möglichen Tripletts mit gleicher Häufigkeit. Taucht daher in einem Fremdgen ein Triplett auf, das der Wirtsorganismus selbst nur selten oder gar nicht benutzt – weil er lieber andere verwendet –, dann kann dies Schwierigkeiten machen. Allerdings verfügen die Gentechniker heute über viele Möglichkeiten, ein bestimmtes Triplett innerhalb der DNA gegen ein anderes auszutauschen. Es ist sogar möglich, ganze Gene chemisch zu synthetisieren. Auch ein solches „vollsynthetisches“ Gen kann eine Bakterienzelle in das entsprechende Eiweiß umsetzen. Ein weiterer wichtiger Punkt ist die Tatsache, dass unterschiedliche Organismen unterschiedliche Signale entwickelt haben, um genetische Information möglichst effizient in das entsprechende Eiweiß umzusetzen. Dabei sind auch Bereiche außerhalb des eigentlichen Strukturgens von Bedeutung. Für den Gentechniker gilt als Faustregel, dass er möglichst wenig fremde DNA in den Wirtsorganismus einbringt. Die gesamten Steuerungssignale stammen häufig aus dem Wirtsorganismus, nur die Information des Strukturgens wird vom Spenderorganismus übernommen. 1.3 Eile mit Weile Sicherheitsbestimmungen in der Biotechnologie Die Ergebnisse von Boyer, Cohen und Kollegen waren Anfang der 70er Jahre eine echte Sensation. Die Wissenschaft geriet in Aufruhr. Welche unerhörten Möglichkeiten zeichneten sich da ab? Aber wo Chancen sind, sind immer auch Risiken. Und war man sich über diese Risiken eigentlich im Klaren? Man konnte sich über die Risiken zum damaligen Zeitpunkt noch nicht im Klaren sein. Gegenüber den in der Natur allgegenwärtig anzutreffenden Systemen des DNA-Transfers bot sich jetzt ja die Möglichkeit, über Artengrenzen hinweg Gene beliebig auszutauschen. Das war eine in dieser Verfügbarkeit völlig neue Qualität. Wie würden sich die Zielorganismen bei Vorhandensein neuer Gene verhalten? Die Wissenschaftler zügelten ihren Tatendrang erst einmal. Und berieten auf einer Konferenz darüber, ob und wie mögliche Risiken abgeschätzt werden könnten. Im Anschluss an diese Konferenz, die im Jahr 1975 in Asilomar, USA, abgehalten wurde, führte man eine ganze Reihe von Versuchen durch. Man benutzte dazu Einrichtungen, die für den Umgang mit natürlich vorkommenden und sehr gefährlichen Mikroorganismen oder Viren ausgelegt waren. Diese sind ja leider gar nicht so selten und erfahren gerade in Zeiten eines weltumspannenden Tourismus immer neue Berühmtheit. Wissenschaftlich hatte man Mikroorganismen und Viren deshalb schon früh in Gruppen unterschiedlicher Gefährlichkeit zusammengefasst und für den Umgang mit diesen Gruppen gemeinsam mit dem Gesetzgeber Vorschriften erarbeitet. Man behandelte die gentechnisch veränderten Mikroorganismen nun so, als gehörten sie in die höchste Sicherheitsstufe. Die wesentlichste Erkenntnis der damaligen Versuche war, dass das Zufügen eines einzelnen fremden Gens den Wirtsorganismus in seinen grundlegenden Eigenschaften nicht verändert. Immerhin hatte es zuvor eine zwar theoretische, aber sehr beunruhigende Befürchtung gegeben. Was wäre, wenn aus der Kom- 17 Das Klonieren ist die Grundoperation der Gentechnik: Ein Plasmid wird mit einem Restriktionsenzym geöffnet und fremde DNA in die Schnittstelle eingepasst. Dann wird die rekombinierte DNA in Wirtszellen übertragen und von diesen vermehrt. Grundlagen Grüße von den Gründungsvätern: Stanley N. Cohen und Herbert W. Boyer machten die ersten gentechnischen Experimente. Schon bald darauf wurde zur Sicherheitskonferenz von Asilomar eingeladen. bination eines harmlosen Mikroorganismus mit einem an sich „harmlosen“ fremden Gen ein gefährlicher Mikroorganismus entstehen würde? Einer, gegen den kein Kraut gewachsen ist? Diese theoretische Befürchtung hat sich nicht bestätigt. Heute sind wir in der Lage, nicht nur Mikroorganismen, sondern auch Pflanzen und Tiere gentechnisch zu verändern. Daher können wir eine Analogie aus dem Tierreich wählen. Wenn ein Kaninchen gentechnisch verändert wird, bleibt es trotz einer vielleicht neu hinzugewonnenen Eigenschaft ein Kanin- 18 chen. Der Umgang mit diesem gentechnisch veränderten Kaninchen ist nicht gefährlicher als der mit einem anderen. Sollte allerdings jemand mit einem gentechnisch veränderten Tiger arbeiten wollen, dann sollte er besser höllisch aufpassen. Nicht deshalb, weil der Tiger jetzt gentechnisch verändert ist. Sondern einfach deshalb, weil es sich um einen Tiger handelt. Dementsprechend haben sich auch die Richtlinien entwickelt, die ausgehend von der Konferenz von Asilomar für gentechnische Arbeiten erlassen wurden. Die Sicherheitsanforderungen orientieren sich an der Gefährlichkeit der Organismen, deren Gene mittels gentechnischer Methoden kombiniert werden. Handelt es sich dabei nur um Organismen, die harmlos sind, dann kann man davon ausgehen, dass auch der resultierende gentechnisch veränderte Organismus harmlos ist. Für solche Experimente wurden die Sicherheitsanforderungen daher nach und nach gelockert. Allgemein werden gentechnische Experimente heute in vier Sicherheitsstufen eingeteilt. Die unterste Sicherheitsstufe, S1, unterliegt in vielen Ländern keiner besonderen Regelung mehr. Auch in Europa und Deutschland wird verschiedentlich gefordert, die vorhandenen Regelungen in dieser Sicherheitsstufe aufzuheben. Natürlich gelten weiterhin sämtliche Bestimmungen für mikrobiologisches Arbeiten ganz allgemein. Mit wachsender Sicherheitsstufe wachsen die Anforderungen an die Sicherheitsvorkehrungen bei den Experimenten dann schnell. Die Bedingungen für S2-Experimente können von gut ausgestatteten mikrobiologischen Labors in aller Regel noch erfüllt werden. Ab der Stufe S3 sind aber bereits besondere bautechnische Maßnahmen und ein besonders hohes Ausstattungsniveau erforderlich. Die Anforderungen für S4Experimente erfüllen weltweit nur einige wenige Hochsicherheitslabors. Biotechnologie und moderne Medizin 2. Biotechnologie und moderne Medizin 2.1 Ordnung ins Chaos Einsichten in den Stoffwechsel einer Zelle Mitte der 70er Jahre begann durch den zunehmenden Einsatz gentechnischer Methoden eine Revolution in der Biologie, Medizin und auch auf vielen anderen Gebieten. Die Gentechnik erweiterte das methodische Repertoire der Forscher gewaltig und erlaubte es, völlig neue Fragestellungen anzugehen. Die Methoden, die zunächst nur bei Mikroorganismen angewendet wurden, konnten durch Abwandlungen und viele Tricks auch bei höheren Organismen erfolgreich eingesetzt werden. Der Wissensschub, der daraus resultierte, hat seine Dynamik auch zu Beginn des neuen Jahrhunderts noch lange nicht verloren. Im Folgenden sollen einige Beispiele für Einsichten angeführt werden, die wir durch Anwendung der neuen Methoden gewonnen haben. In einer lebenden Zelle passieren unüberschaubar viele Dinge parallel. Signale werden mit der Umgebung ausgetauscht, Stoffe werden hin- und hertransportiert, ab- und aufgebaut, in Wachstum und Energie umgesetzt. Die Gentechnik bietet hier eine phantastische Möglichkeit. Sie erlaubt es, aus diesem scheinbaren Tohuwabohu eine bestimmte Reaktion herauszulösen und einzeln zu untersuchen. Ein bestimmtes Protein, das an solchen Reaktionen beteiligt und natürlicherweise nur in Spuren vorhanden ist, kann man nun in großen Mengen herstellen. Das Protein kann dann biochemisch untersucht, seine Struktur aufgeklärt und spezifische Antikörper gegen das Protein können hergestellt werden. Diesen Möglichkeiten verdankt die Wissenschaft eine Vielzahl neuer Informationen. Da sich die öffentliche Diskussion hauptsächlich um sichtbare Anwendungen und Produkte der Gentechnik dreht, wird die zentrale Bedeutung der Gentechnik für die Grundlagenforschung in vielen Bereichen häufig übersehen. Gerade hier liegt aber ihre besondere Stärke. Durch die Gentechnik hat es einen enormen Erkenntnisgewinn und einen Schub für biotechnische Anwendungen gegeben. Gerade im Hinblick auf Faktoren, die für eine Interaktion von Zellen mit der Umwelt entscheidend sind, hat man viel gelernt. Zellen besitzen auf ihrer Oberfläche Rezeptoren, die durch Bindung bestimmter Moleküle, der so genannten Liganden, aktiviert werden können. Diese Aktivierung setzt in den Zellen eine Kaskade von Reaktionen in Gang, an denen jeweils unterschiedliche Proteine beteiligt sind. Die Gentechnik gestattet es nun, die genetische Information für diese Proteine auf andere Zellen zu übertragen und jedes Protein für sich allein zu studieren. Das gilt prinzipiell für alle biochemischen Reaktionen im Körper. Wir lernen deshalb immer mehr darüber, welche Bedeutung bestimmte Reaktionen haben, welche Stoffe für ihren reibungslosen Ablauf erforderlich sind und was passiert, wenn die normalen Reaktionsfolgen gestört werden. 19 Ein geordnetes Chaos: Die Stoffwechselwege in einer lebenden Zelle sind eng miteinander gekoppelt und nur schwer zu analysieren. oben erwähnten Rezeptoren betroffen. Sie signalisieren der Zelle dann fälschlicherweise, dass sie sich beständig teilen soll. Das daraus resultierende ungeregelte Wachstum kennen wir als Krebs. Krebs und wie er zustande kommt Traurige Statistik: Krebs ist in Deutschland die zweithäufigste Todesursache. 2.2 Außer Kontrolle Einsichten in die Entstehung von Krebs Beispielsweise war in der Medizin längst bekannt, dass Krebs durch ein aggressives Wachstum von Zellen entsteht, die sich normalerweise nicht mehr teilen sollten. Es war deshalb nahe liegend anzunehmen, dass Krebszellen Defekte in der Regulierung ihres Wachstums aufweisen. Auch war schon früh bekannt, dass bestimmte Krebsarten durch Chemikalien, intensive Strahlung oder Viren hervorgerufen werden können. Doch der genaue Zusammenhang war mit klassischen Methoden nicht zu klären. Die Anwendung neuer, insbesondere gentechnischer Methoden hat zum Verständnis dieser Zusammenhänge entscheidend beigetragen. Heute wissen wir, dass Mutationen in bestimmten Genen für das Auftreten von Krebs mitverantwortlich sind. Proteine, die in der Zelle wichtige Aufgaben wahrnehmen, werden durch die Mutationen geschädigt oder in ihrer Funktion verändert. In einigen Fällen sind davon die 20 Das Wachstum unserer Körperzellen ist strikt reguliert. Die meisten der ausdifferenzierten Zellen sollen sich nicht mehr weiter teilen. Tun sie das aufgrund eines Fehlers doch, kann Krebs entstehen. Es müssen dazu aber eine ganze Reihe von Veränderungen zusammenkommen. Ein einziger Fehler reicht für die Entstehung von Tumoren wohl nicht aus. Auch ist das Wachstum einer primären Ansammlung von Krebszellen schnell beendet. Neuere Untersuchungen belegen, dass jeder älterer Mensch zahlreiche solcher kleinen Tumoren in sich trägt. Diese Herde bleiben aber in einer frühen Entwicklungsphase stehen. Für die Versorgung der Zellen mit Nährstoffen müssen dann erst neue Blutkapillaren gebildet werden. Dieses Signal an die Blutkapillaren ist ein ganz entscheidender Wendepunkt in der Entstehung des Krankheitsbildes. Erst jetzt werden die Zellen des kleinen Tumors ausreichend mit Nährstoffen versorgt und können weiter wachsen. Ist dieses Wachstum dann richtig in Gang gekommen, können sich die Tumorzellen vom primären Ort ihrer Entstehung ablösen, an anderen Orten des Körpers ansiedeln und dort weiter teilen. Das sind die gefürchteten Metastasen. Heute wissen wir über Krebs und die Mechanismen seiner Entstehung sehr gut Bescheid. Ganz grob kann man Gene unterscheiden, deren Produkte für die Zelle schädlich werden, wenn sie in vermehrter oder veränderter Form vorliegen. Das sind die so genannten Onkogene. Mindestens ebenso bedeutend sind Gene, deren Produkte einem ungeregelten Wachstum ständig entgegenwirken. In diesen Fällen entsteht Krebs, wenn die entsprechenden Proteine ausfallen. Die korrespondierenden Gene werden daher als Tumor-Suppressor-Gene bezeichnet. Bleiben wir beim ersten Fall. Das Wachstum bestimmter Zellen wird stimuliert, wenn sich zelltypspezifische Wachstumshormone als Liganden an die zuständigen Rezeptoren binden. Dadurch wird der Rezeptor aktiviert und gibt Signale weiter, die letztendlich eine Zellteilung zur Folge haben. Dieser Prozess ist streng reguliert und an die Bindung des Wachstumshormons gekoppelt. Bestimmte Mutationen im Gen für den Rezep- Biotechnologie und moderne Medizin tor haben aber zur Folge, dass ein Rezeptormolekül gebildet wird, das permanent im aktiven Zustand vorliegt. Auch ohne Bindung des Wachstumshormons signalisiert dieser Rezeptor der Zelle also ständig, dass sie sich teilen soll. Damit ist eine wichtige Voraussetzung für die Entstehung von Krebs gegeben. Auch andere Defekte sind heute so genau bekannt, dass sich durch eine Diagnose auf Genebene sogar Voraussagen über die Schwere und den Verlauf der Krankheit machen lassen. In einigen Fällen wird davon gesprochen, dass Krebs erblich ist. Was steckt dahinter? Nach der Befruchtung einer Ei- durch eine Samenzelle ist ein doppelter Chromosomensatz in der befruchteten Eizelle vorhanden. Dieser findet sich später in allen Zellen des Organismus, nur in den Keimzellen nicht, da hier der doppelte Chromosomensatz durch eine besondere Form der Zellteilung wieder halbiert wird. Die normalen Körperzellen aber tragen jedes Gen doppelt in sich, und zwar eine mütterliche und eine väterliche Version. Ausnahmen gelten nur für die geschlechtstypischen Chromosomen X und Y. Sollte daher ein Gen ausfallen, kann das andere seine Funktion mitübernehmen. Natürlich nur, wenn beide Gene von vornherein intakt waren. Bei den erblichen Formen von Krebs ist es nun wohl so, dass die mütterliche oder väterliche Version eines wichtigen Gens bereits defekt ist. Demzufolge ist nur noch eine der beiden Ausfertigungen des Gens für die Zelle verfügbar. Daher kann eine Mutation in dieser zweiten Ausfertigung des Gens direkt zur Ausbildung von Krebs beitragen. Ohne diese Vorbelastung müssen innerhalb einer Zelle in beiden Genen gleichzeitig Mutationen auftreten. Die Wahrscheinlichkeit dafür ist ungleich geringer. Bei genauer Betrachtung wird also nicht Krebs vererbt, sondern eine genetische Disposition, die das Auftreten einer Krebserkrankung wahrscheinlicher macht. Neue therapeutische Ansätze richten sich heute vor allem gegen bestimmte Strukturen auf den Oberflächen von Krebszellen. Im Produktteil der Broschüre findet sich ein Beispiel dafür, das Trastuzumab, das gegen eine bestimmte Form von Brustkrebs eingesetzt werden kann. Krebszellen unterscheiden sich in ihren Oberflächenstrukturen oft deutlich von normalen Zellen. Diese Unterschiede können von Antikörpern erkannt und zunächst einmal diagnostisch genutzt werden. Es sind aber auch Strategien entwickelt worden, bei denen die Antikörper Rezeptoren blockieren oder toxische Moleküle gezielt und ausschließlich an Tumorzellen heranführen. Hierfür werden die für Tumorzellen spezifischen Oberflächenproteine mit gentechnischen Methoden hergestellt und Mäusen oder Kaninchen appliziert. Diese produzieren gegen die fremden Proteine dann Antikörper und können als Grundlage für die Herstellung Monoklonaler Antikörper (siehe Seite 94) genutzt werden. Wie später noch erläutert, werden diese Monoklonalen Antikörper vor einem Einsatz am Menschen dann noch chimärisiert oder humanisiert, um sie verträglicher zu machen. Die Antikörper können je nach therapeutischem Ansatz in vitro auch noch mit den Molekülen beladen werden, die die Krebszellen abtöten sollen. Da die Antikörper idealerweise nur an die Oberflächenproteine der Krebszellen binden, kommen die zelltoxischen Moleküle nur mit Krebszellen in Berührung und töten nur diese ab. Auch für dieses Prinzip findet sich – in einer leicht abgewandelten Form – ebenfalls ein Beispiel im Produktteil, das Denileukin Diftitox. Hier wird das toxische Molekül nicht mit einem Antikörper, sondern mit dem natürlichen Liganden eines Rezeptors auf den Krebszellen verbunden. Krebs kann durch ein große Anzahl unterschiedlicher Gendefekte ausgelöst werden. Viele dieser Veränderungen sind heute genau bekannt und können zu diagnostischen Zwecken herangezogen werden. Im Falle des Retinoblastoms, einer seit vielen Jahrhunderten bekannten und tödlich verlaufenden Form von Augenkrebs, konnte man eine bereits länger gehegte Vermutung belegen: Die Veranlagung für manche Krebsarten ist vererbbar. Beim Retinoblastom ist das Auftreten des Tumors sehr wahrscheinlich, wenn eine bestimmte genetische Prädisposition gegeben ist. Diese ist besonders einfach nachweisbar, weil sie mit einer Chromosomenumlagerung verknüpft ist und schon unter dem Mikroskop erkennbar wird. Dort, wo mit dem Vorhandensein dieser Veranlagung aus der Familiengeschichte heraus zu rechnen ist, kann daher früh mit einer sorgfältigen Beobachtung der Retina begonnen werden. Während die Krankheit früher mit Sicherheit tödlich verlief, kann sie heute frühzeitig erkannt und das Leben – oft auch das Augenlicht der Patienten – gerettet werden. Eine ähnliche Situation ergibt sich im Fall einer Veranlagung für Brustkrebs bei Frauen. Hier konnten Gene identifiziert werden, deren Nachweis ebenfalls mit hoher Wahrscheinlichkeit erwarten lässt, dass sich bei den Trägerinnen Brustkrebs entwickeln wird. Leider verfügt die Medizin außer über die Möglichkeit zu einer intensiven Vorsorge – wie schon im Falle des 21 Biotechnologie und moderne Medizin Retinoblastoms – noch nicht über echte therapeutische Möglichkeiten. Die diagnostischen Möglichkeiten gehen den therapeutischen hier, wie in vielen anderen Bereichen der Medizin, voran. Mit der Kenntnis um die Ursachen einer Krankheit hat man aber die wesentlichste Voraussetzung für einen rationalen therapeutischen Ansatz geschaffen. Ein Bereich, der eng mit dem Krebsgeschehen verknüpft ist, ist die Immunologie. Auch auf diesem Sektor hat es dank der Verfügbarkeit gentechnischer Methoden große Fortschritte gegeben. Dies hat unter anderem damit zu tun, dass man die oben bereits erwähnten Oberflächenstrukturen von Zellen isolieren und einzeln studieren kann. Darüber hinaus hat man sehr viel über die Faktoren gelernt, die auf das Immunsystem stimulierend wirken können. Daraus haben sich neue Ansätze ergeben, die im Kapitel „Neue Therapien“ kurz angerissen werden. 2.3 HUGO teilt die Karten aus Die Bedeutung der Genomprojekte Das Humangenomprojekt (HGP) ist ein historisch einmaliges Unternehmen – nicht nur wegen des veranschlagten Kostenvolumens von 3 Milliarden Dollar. Rund um den Erdball arbeiten, koordiniert von der Human Genome Organization (HUGO), Forscherteams Schneller als erwartet: Die Sequenzierung des menschlichen Genoms ist dank hoher Automatisierung bereits weitgehend abgeschlossen. arbeitsteilig an der Sequenzierung der 24 verschiedenen Chromosomen (22 Autosomen und die Geschlechtschromosomen X und Y). Deutsche Forscher bearbeiten die Chromosomen 7, 11, 21 und X. In den USA, in Großbritannien, Frankreich, Deutschland und Japan entstanden mit öffentlichen Mitteln große Genomforschungszentren, die die notwendigen personellen und materiellen Ressourcen bereitstellen. In Konkurrenz zum Humangenomprojekt beteiligen sich auch Firmen an der Entschlüsselung des 22 Humangenoms. Sie wollen Geld mit der Suche nach interessanten Gensequenzen verdienen, die sie patentieren und an große Pharmaunternehmen verkaufen könnten. Die Firmen konzentrieren sich dabei bevorzugt auf die Sequenzierung von gencodierenden DNAAbschnitten, die nur ca. 3% des gesamten Humangenoms ausmachen. Patente auf DNA-Sequenzen werden übrigens nur dann gewährt, wenn diese noch nicht in öffentlichen Datenbanken erfasst wurden und im Patentantrag auch die zugehörigen Funktionen genannt werden. Die Aufklärung der Genfunktionen ist meistens schwierig und dementsprechend teuer. Das Humangenomprojekt gewann ab Mitte der 90er Jahre rasch an Fahrt. Aus den Labors fluten seitdem immer mehr Sequenzdaten in die Datenbanken (s. Abb.). Diese „Massenproduktion“ ist u.a. der Verfügbarkeit von leistungsfähigen DNA-Sequenzierungsautomaten zu verdanken. Die Genomforschung erzwang geradezu das Zusammenwachsen von zwei bislang entfernten Fachrichtungen zur so genannten Bioinformatik. Diese hat die schwierige Aufgabe, die relevanten Informationen aus dem gewaltigen Datenstrom herauszufiltern. Hier erwies sich die atemberaubende Entwicklung des Internets als segensreich, ermöglicht es doch den sofortigen Abgleich mit andernorts gewonnenen Daten und stellt zudem allen Interessierten den aktuellen Stand online zur Verfügung. Ein internationales Abkommen, die BermudaKonvention, verpflichtet die Partner im HGP, alle gewonnenen Sequenzdaten unverzüglich zu veröffentlichen. Nach ursprünglicher Planung der HUGO sollte das Humangenom bis 2005 vollständig durchsequenziert und die Daten öffentlich verfügbar sein. Im Frühjahr 1998 kündigte der amerikanische Genomforscher J. Craig Venter überraschend an, die Sequenzierung des Humangenoms in einem eigenen Projekt mindestens drei Jahre früher als das internationale Genomprojekt abschließen zu können. Dazu gründete er mit einem Hersteller von Sequenzierungsautomaten das Unternehmen Celera, das über hunderte von Hochleistungs-Sequenziermaschinen verfügt. Während im HGP kartiert und sequenziert wird (s. Kasten), verfolgt Celera einen Schrotschuß-Ansatz, der auf der statistischen Zerstückelung des gesamten Genoms beruht. Die vielen erhaltenen Fragmente werden wahllos sequenziert und die gefundenen Sequenzen durch Computeranalyse anhand ihrer Überlappungen zu einer zusammenhängenden DNA-Sequenz zusammengefügt. Die darin enthaltenen medizinisch Biotechnologie und moderne Medizin Gering aufgelöste Physikalische Karte des Chromosoms 19 Genetische Karte Myotonische Dystrophie (DM) Hämolytische Anämie (GPI) Maligne Hyperthermie (RYR1) Pseudoachondroplasie (COMP) Insulin-unabhängige Diabetis (INSR) Familiäre Hypercholesterolämie (LDLR) interessanten Informationen verkauft das Unternehmen an Pharmafirmen. Celera begann im September 1999 mit der Sequenzierung und steigerte seine Sequenzierkapazität auf mehrere Millionen Basenpaare am Tag. Bereits im Januar 2000 lagen nach Firmenangaben bereits 90% des menschlichen Genoms in einer Rohfassung vor. Aufgeschreckt durch diese Fanfarenstöße legte man auch beim Internationalen Humangenomprojekt einen höheren Gang ein und nahm die Herausforderung an. Weltweit wurden kurzfristig zusätzliche Fördermittel bewilligt, bestehende Zusagen mit vorgezogenem Zeitplan eingelöst und der angekündigte Abschluss der Sequenzierung um zwei Jahre vorverlegt. Ende 1999 veröffentlichten die HUGO-Forscher die fast vollständige Sequenz des Chromosoms 22 mit seinen 34 Millionen Basenpaaren. Für das Frühjahr 2000 wurde die erste Genkarte (draft) des Menschen angekündigt, die 90% des gesamten Genoms umfassen soll und der die ungefähren Positionen der bis dahin gefundenen Gene zu entnehmen sein sollen. Bestehende Lücken würden in den folgenden drei Jahren geschlossen werden, bis schließlich 2003 die genaue Gesamtsequenz vorliegen soll. Das Rennen dürfte spannend bleiben. Sicher ist die Sequenzierung des Humangenoms eine nahe liegende und vordringliche Aufgabe. Viel komplizierter und zeitaufwendiger wird jedoch die Ermittlung der Genfunktionen und die Aufklärung der komplizierten Regulationsmechanismen werden, von denen die Entwicklung eines Organismus oder die Zellteilung gesteuert wird. Wie bei anderen biomedizinischen Fragestellungen auch kann man viel aus dem Studium anderer Organismen lernen. Aus diesem Grund gibt es neben dem HGP weitere internationale Sequenzierungsprojekte für die Genome von ModellOrganismen. Es gibt z. B. Genomprojekte für die Genome der Maus, der Fruchtfliege oder des Zebrafisches. Mit Hilfe von „Gene-knock-out“-Studien will man herausfinden, welche Rolle ein bestimmtes Gen spielt, das sowohl im Human- als auch im Modellorganismusgenom vorkommt. Unter „Gene-knock-out“ versteht man das gezielte Ausschalten einzelner Gene. Die daraus resultierenden Effekte geben wertvolle Informationen zur Funktion des defekten Gens. Für die Pflanzenbiotechnologie wurde die Erforschung von Modellpflanzengenomen ebenfalls unverzichtbar. Mit den Ergebnissen hofft man, ertragreichere Varianten züchten zu können und die Vorgänge der pflanzeneigenen Schädlingsabwehr zu enträtseln, um widerstandsfähige Sorten zu entwickeln. Mit der Ackerschmalwand (Arabidopsis thaliana) wählten die Forscher eine Modellpflanze für das Internationale Genomprojekt aus, die ein verhältnismäßig Marker kleines Genom besitzt. Entfernung in Centimorgans Durch moderne Methoden können bestimmte Bereiche der Chromosomen spezifisch sichtbar gemacht werden. Die Chromosomen werden in immer kleinere Bruchstücke aufgeteilt, bis diese sequenziert werden können. Überlappende Fragmente Karte mit den Schnittstellen der Restriktionsenzyme Basensequenzen 23 Biotechnologie und moderne Medizin Nicht nur, weil es das erste vollständig durchsequenzierte größere Genom war, sondern auch, weil es sich bei der Hefe um einen Organismus mit echtem Zellkern (Eukaryont) handelt. Als solcher steht die Hefe dem Menschen entwicklungsgeschichtlich und physiologisch sehr viel näher als Bakterien oder Archaea, was die Suche nach verwandten Genen aussichtsreicher macht. Bei einem Vergleich der Sequenzdaten hat sich herausgestellt, dass rund 25% der Hefegene in ähnlicher Form auch beim Menschen zu finden sind. Wie findet man sich im Genom zurecht? Orientierung ist wichtig: Beim Vordringen auf unbekanntes Terrain war das Anlegen von Karten schon immer hilfreich. BMBF-Aktivitäten Im Juli 1999 startete in Deutschland das Pflanzengenomprojekt GABI, in dessen Mittelpunkt die Genomanalyse wichtiger Kulturpflanzen steht. Aus den Forschungsergebnissen werden Impulse für eine qualitative Verbesserung von Pflanzen und ihren Inhaltsstoffen erwartet. Hieraus ergeben sich u. a. neue Möglichkeiten zu einer Ressourcen schonenden, umweltverträglichen Produktion von Wirkstoffen für die Industrie. Das Forschungsprojekt GABI soll Deutschland in eine internationale Spitzenposition auf dem Gebiet der Pflanzengenomforschung bringen. Auch Mikroorganismen-Genomprojekte sind in großer Zahl gestartet worden. Einerseits besitzen Mikroorganismen kleine Genome, die verhältnismäßig schnell und kostengünstig zu sequenzieren sind. Andererseits verspricht die Entdeckung von Genen, die für die pathogenen Eigenschaften verantwortlich sind, gute Ansatzpunkte zur Entwicklung von Antibiotika (s.a. Kap. „Biochips“). Daher wundert es nicht, dass weltweit fast 90 mikrobielle Genomprojekte durchgeführt werden. Besondere Erwähnung verdient die Entschlüsselung des Hefegenoms mit seinen ca. 6.400 Genen. 24 Wie vor Jahrhunderten bei der Erkundung neu entdeckter Kontinente müssen heutzutage auch die Pioniere der Genomforschung Karten anfertigen. Deren zunehmende Genauigkeit erst ermöglicht die Erschließung des unbekannten Terrains. Eine erste grobe Orientierung bieten so genannte „Genetische Karten“. Hier nutzt man die Tatsache, dass die Chromosomen eines Chromosomenpaares meistens nicht unverändert von einer Generation auf die nächste übertragen werden, sondern mit ihrem Schwesterchromosom Stücke austauschen. Dass zwei Abschnitte auf einem Chromosom gemeinsam an die nächste Generation weitergegeben werden, ist umso wahrscheinlicher, je näher sie beieinander liegen. Die statistische Häufigkeit, mit der zwei Orte gemeinsam vererbt werden, sprich gekoppelt sind, ist deshalb ein Maß für die relative Entfernung voneinander. Als charakteristische „Wegmarken“ (engl. Marker) bei solchen Kopplungsanalysen dienen z.B. Polymorphismen. Das sind charakteristische DNA-Sequenzen, die zwischen verschiedenen Menschen kleine Unterschiede aufweisen können und die zu Tausenden über die Chromosomen verteilt sind. Durch Kopplungsanalysen ist es z.B. möglich, die statistische Distanz zwischen einem krankheitsassoziierten Gen und einem Marker zu bestimmen. So genannte „Physikalische Karten“ eines Genoms sind schon genauer. Sie geben im Gegensatz zu den oben erwähnten statistischen Entfernungen die echten räumlichen Distanzen zwischen den Markern wieder. Physikalische Karten basieren auf der Tatsache, dass sich mit Hilfe vieler bekannter Marker viele Teilstücke eines Genoms – ähnlich wie ein Puzzle – an ihren Enden überlappend aneinanderfügen lassen. Zunächst zerstückelt man genomische DNA in mehre- Biotechnologie und moderne Medizin ren Ansätzen mit verschiedenen Enzymen in größere Fragmente von 500.000 bis 1 Million Basenpaaren Länge. Sie werden in spezielle Hefechromosomen, so genannte YACs (yeast artificial chromosomes), eingefügt. Dadurch erhält man eine „Bibliothek“ von Klonen, die mit Sicherheit so viele DNA-Fragmente enthält, dass das gesamte Genom mindestens einmal darin repräsentiert ist. Die klonierten Fragmente der YACBibliothek lassen sich nun anhand bekannter Marker zu einem minimalen Satz überlappender Fragmente anordnen, die das gesamte Genom lückenlos abdecken. Einen solchen Satz bezeichnet man als contiguous gene sequence, abgekürzt contig (s. Abb. S. 23 unten). Ein contig ist gewissermaßen schon eine erste grobe Karte des Genoms. Für die Bestimmung der Reihenfolge der DNABasen, die Sequenzierung, sind die einzelnen YAC-Fragmente aber noch viel zu groß. Daher spaltet man auch diese und erhält Fragmente von durchschnittlich 100.000-200.000 Basenpaare Länge, die in Bakterien kloniert werden können. Man erzeugt auf diese Weise viele einzelne contigs, die die jeweiligen Fragmente der YACs repräsentieren und zusammengelegt eine feinere Karte des ganzen Genoms ergeben. Über weitere Subklonierungschritte gelangt man schließlich zu Fragmentlängen, die vollständig sequenziert werden können. Aus allen diesen Teilsequenzen lässt sich dann per Computer die Gesamtsequenz des Genoms zusammenfügen. Die Suche nach bestimmten, z.B. krankheitsassoziierten Genen im Genom ähnelt einer Schatzsuche auf einem unbekannten Kontinent. Schließlich bestehen 97% des Genoms aus nichtcodierenden Sequenzen. Zwar erhält man aus Kopplungsanalysen Hinweise auf interessante Regionen, aber die Eingrenzung der chromosomalen Abschnitte auf die gesuchte Gensequenz, die so genannte Positionsklonierung, erfordert viel Aufwand. Bei den Kopplungsanalysen vergleicht man systematisch die DNA von gesunden mit der von erkrankten Familienmitgliedern. Ermittelt man die Position von Markern, die zusammen mit der Erkrankung vererbt werden, weiß man damit auch, wo in etwa auf welchem Chromosom das „KrankheitsGen“ liegen muss. Rund 6.000 Krankheiten werden nach heutiger Schätzung jeweils durch ein einziges defektes Gen verursacht. Die zahlreichen polygenetischen Erkrankungen, an deren Zustandekommen mehrere, oft Dutzende von Genen beteiligt sind – etwa Arteriosklerose, Asthma oder Krebs – sind weitaus schwieriger zu analysieren. Zur Suche nach unbekannten Genen werden bevorzugt so genannte ESTs (expressed sequence tags) als „Gensonden“ eingesetzt. ESTs sind kurze cDNA-Fragmente, die aus mRNAs erhalten werden, welche ja bekanntlich die Botenmoleküle für die Proteinsynthese sind. ESTs sind deshalb charakteristische Marker für codierende Abschnitte im Genom, sprich für Gene. Findet man eine EST-Sequenz im Genom wieder, hat man auch das Gen lokalisiert. Allerdings weiß man damit immer noch nicht, welche Funktion das Gen hat. Wählt man beispielsweise von vornherein mRNA aus Zellen erkrankter Gewebe aus, erhöht sich die Wahrscheinlichkeit, krankheitsrelevante Gene zu finden. In der Praxis arbeitet man heute zunehmend mit DNA-Chips (s. Kap. „Biochips“), um gezielt diejenigen mRNAs herauszufischen, die mit einem pathologischen Zustand assoziiert sein könnten. 2.4 Von geizigen Genen und Biochips Die Methode des Transcript-Imaging Man schätzt heute grob, dass in der Gesamtheit der menschlichen Erbinformation rund 100.000 Gene enthalten sind. Diese sind aber längst nicht alle gleichzei- 25 Die Chiptechnik bringt es auf den Punkt. Die Aktivität Tausender Gene kann gleichzeitig gemessen werden. Biotechnologie und moderne Medizin tig aktiv. Die meisten Gene befinden sich quasi im Ruhezustand und stellen ihre Information der Zelle gar nicht zur Verfügung. Wir wissen, dass Proteine entstehen, wenn die entsprechende genetische Information aktiviert und in Kranke und gesunde Zellen unterscheiden sich in der Aktivität ihrer Gene. Diese Unterschiede können mit Fluoreszenzfarbstoffen sichtbar gemacht werden. Form der mRNA zu den Ribosomen transportiert wird. Die Art und Zahl der mRNA-Moleküle, die in einer Zelle vorhanden sind, können daher etwas über ihren Zustand aussagen. Es sind Verfahren entwickelt worden, um die mRNA-Moleküle in einer Zelle nach Art und Anzahl zu erfassen. Damit erfährt man sofort, welche Gene in einer Zelle angeschaltet und ob sie sehr oder nur wenig aktiv sind. Es ist der Vergleich von gesunden und kranken Zellen, der das Verfahren besonders interessant 26 macht. Denn erst wenn die Ursachen einer Krankheit bekannt sind, kann man gezielte Schritte gegen sie unternehmen. Wenn ein Mensch krank wird und Fieber hat, können wir zunächst nur versuchen, sein Fieber durch äußerliche Maßnahmen zu senken. Erst wenn wir wissen, wodurch das Fieber ausgelöst wird, können wir auch die Ursache beseitigen. Taucht beispielsweise eine bestimmte mRNA in den Zellen eines kranken Menschen nicht mehr auf, dann kann man der Frage nachgehen, welches Gen nicht mehr aktiv ist und welche Aufgabe das zugehörige Protein in der Zelle normalerweise erfüllt. Dies kann wiederum mit den Krankheitssymptomen in Verbindung gebracht werden. Hier erweisen sich die im Genomprojekt ermittelten Daten von großem Wert. Diese Daten erlauben die Korrelation von Genen und Funktionen. Die Methode des Transcript Imaging ermittelt dann, welche Gene zu welchem Zeitpunkt angeschaltet sind. In Verbindung mit den Daten aus dem Genomprojekt kann man ableiten, welche Funktionen der Zelle wann und in welchem Umfang zur Verfügung stehen. Neben der direkten Untersuchung von Krankheitsursachen versetzt uns das Transcript Imaging auch in die Lage, Unterschiede zwischen verschiedenartig spezialisierten Zellen zu erkennen. Es ist nicht überraschend, dass in einer Leberzelle andere Gene aktiv sind als in einer Hautzelle. Die Zellen haben zwar dieselbe genetische Ausstattung, müssen aber völlig andere Aufgaben erfüllen. Sie erreichen dies, indem sie jeweils andere Gene aktivieren. Gerade die unterschiedliche Aktivität der Gene ist es, die den einen Zelltyp vom anderen unterscheidet. Das Tran- Biotechnologie und moderne Medizin script Imaging gestattet es jetzt, der Spezialisierung einzelner Zelltypen auf die Spur zu kommen. Einen eleganten Weg, die Expression vieler Gene gleichzeitig zu verfolgen, bieten die so genannten DNA-Chips, die gelegentlich auch als Biochips bezeichnet werden. Als Appetithäppchen eignen sie sich aber keineswegs. Warum das so ist und worum es sich bei den DNAChips genau handelt, wird in Kapitel 7 der Broschüre im Abschnitt „Diagnostik“ näher erläutert (siehe S. 99). 2.5 Vom Genom zum Proteom Proteine sind die Aktivisten der Zelle Für das Geschehen in einer Zelle ist die Aktivität der Gene zwar charakteristisch und notwendig, aber nicht hinreichend. Proteine sind die eigentlichen Träger der im Genom festgelegten Zellfunktionen. Um die komplexen zellulären Vorgänge völlig verstehen zu können, muss man daher die Gesamtheit der vorhandenen Proteine erfassen und analysieren. Dabei müssen letztlich die zahllosen Wechselwirkungen zwischen den einzelnen Proteinen entwirrt werden. Die Gesamtheit der exprimierten Proteine einer Zelle bezeichnet man übrigens als Proteom – in Analogie zum Genom als der Gesamtheit des Erbguts. Zwischen Genom und Proteom bestehen in der Tat große Unterschiede, was die Art der Informationen betrifft. Zum Beispiel gibt es nur schwache Korrelationen von mRNA- und ProteinExpressionsmustern. Quantitative Änderungen der mRNA-Transkription korrelieren allenfalls zu 50% mit der Proteinbildung, was bedeutet, dass Analysen auf der mRNA-Ebene nur unvollständig Auskunft über zelluläre Prozesse geben. Auch besteht nur selten ein 1:1-Verhältnis von Genen und Proteinen. Bei der Hefe etwa gibt es zu jedem Gen im Durchschnitt drei verschiedene Proteinprodukte. Das kann daran liegen, dass mehrere Proteine innerhalb eines „offenen Leserahmens“ (ORF) codiert sind oder dass aus einer exprimierten Proteinkette durch nachträgliche Spaltung mehrere funktionale Proteine entstehen, was man an der zugehörigen DNA- Sequenz nicht leicht erkennen kann. Zudem wird bei höheren Organismen die Funktion vieler Proteine durch enzymatische Veränderungen nach der Translation entscheidend beeinflusst. Beim Menschen schätzt man bis zu zehn unterscheidbare, jeweils anders modifizierte Proteine pro Gen. In der Proteomforschung (engl. Proteomics) untersuchen Wissenschaftler systematisch die Proteinexpressionsmuster von verschiedenen Zellzuständen (s. Kasten). Durch den Vergleich der Muster erfahren sie, welche Eiweiße in welchem Zustand vorhanden sind und in welchem sie fehlen. Für die Pharmaforschung sind solche Hinweise sehr wertvoll geworden: Wenn man z.B. die Eiweiße kennt, die nach der Zugabe eines Wirkstoffs von der Zelle gebildet werden, kann man herausfinden, wodurch die Wirkung zustande kommt, und mit diesen Informationen möglicherweise bessere Wirkstoffe entwickeln. In der Grundlagenforschung sind die neuen Methoden bereits unverzichtbar geworden. Denn die ungeheure Komplexität der Zellfunktionen lässt sich nur verstehen, wenn man Methoden einsetzt, die viele Informationen gleichzeitig liefern. Deshalb ergänzen sich Genomforschung, Genexpressionsanalyse und Proteomics ideal bei der Erforschung der Zellvorgänge auf verschiedenen Ebenen der Zellorganisation. Wie untersucht man Proteinexpressionsmuster? Das Prinzip der zweidimensionalen Auftrennung von Proteinen ist schon recht alt. Bereits 1975 veröffentlichte O'Farrell ein elektrophoretisches Verfahren, das seitdem aus dem Laboralltag nicht mehr wegzudenken ist. Unter Elektrophorese versteht man die Wanderung geladener Teilchen in einem elektrischen Feld. Unterschiedliche Ladungen und Größen der Teilchen bewirken unterschiedliche Beweglichkeiten in einer Gelmatrix, was zur Auftrennung eines Substanzgemischs in einzelne Zonen führt. Beim O'FarrellGel werden Protein- 27 Ein Fleckenteppich als Informationsquelle; die vielen Proteine einer Zelle werden gelelektrophoretisch aufgetrennt. Biotechnologie und moderne Medizin Gentechnisch veränderte Mäuse und Ratten sind hervorragende Modelle, um die Ursachen von Krankheiten zu analysieren und wirksame Therapien zu entwickeln. gemische auf einem rechteckigen Elektrophorese-Gel zunächst in einer Richtung entsprechend ihrer SäureBase-Eigenschaften getrennt. Anschließend trennt man die Proteinfraktionen der Zonen durch ein rechtwinklig zur ersten Trennung angelegtes elektrisches Feld. Dabei wandern die Proteine entsprechend ihrer Molekülgrößen unterschiedlich weit in das Gel hinein. Im Ergebnis erhält man nach Anfärbung der Proteine ein zweidimensionales Muster von „spots“, deren Positionen charakteristisch für das jeweilige Protein sind (s. Abb.). Wie in einem Diagramm lassen sich Säure-Base-Charakter und Molekülgröße des jeweiligen Proteins ablesen. Die Intensität der Spots weist außerdem auf die Proteinmengen hin. Gute Trenngele können heute bereits einige zehntausend separate Proteinspots auflösen. Die vergleichende Auswertung dieser komplizierten Muster wurde erst in den letzten Jahren dank hochauflösender Kameras und leistungsfähiger Bildanalysesoftware möglich. Zur genaueren Untersuchung werden einzelne Proteinspots mit Hilfe von Robotersystemen präzise ausgeschnitten und anschließend analysiert. Für die automatisierten Proteinsequenzierungsverfahren reichen schon geringste Mengen Material aus. Besondere Bedeutung hat die Massenspektrometrie erlangt, wenn es darum geht, eine große Zahl von Spots zu analysieren. Dazu werden die Proteine zuvor enzymatisch in kleinere Proteinfragmente zertrennt. Sie lassen sich im Massenspektrometer zunächst nach Molekülmassen sortieren und dann einzeln in 28 sequenzcharakteristische Fragmente aufspalten. Die dabei gefundenen Aminosäuresequenz-Informationen dienen als Anhaltspunkte zur Suche in Protein- und DNA-Datenbanken, um darin Hinweise auf ähnliche, bereits bekannte Eiweiße zu finden. 2.6 Die Gleichheit der Gene Transgene Tiere als Krankheitsmodelle Die Ergebnisse aus dem Genomprojekt und aus dem Transcript Imaging sind zunächst theoretisch und müssen in der Praxis überprüft werden. Hier erweist es sich als günstig, dass bei Säugetieren die Gene mit gleicher Funktion sehr ähnliche Sequenzen haben. Daher kann man verwandte Gene relativ einfach identifizieren. Wenn ein menschliches Gen bekannt ist, dann kann man also recht schnell auch das entsprechende Gen in der Maus finden. Gentechnische Methoden wurden schon zu Beginn der 80er Jahre benutzt, um fremde DNA in Mäusen zu exprimieren. Im weiteren Verlauf der Arbeiten wurden Verfahren entwickelt, mit denen in transgenen Mäusen Gene gezielt inaktiviert werden können. Dies ermöglicht es heute, in der Maus genau das Gen auszuschalten, dessen Analog beim Menschen im Transcript Imaging aufgefallen ist. Transgene Mäuse erlauben es daher, die Auswirkungen dieser Inaktivierung zu studieren und zu untersuchen, ob dadurch Symptome ähnlich der menschlichen Krankheit ausgelöst werden. Wenn das der Fall ist, kann man an den transgenen Mäusen die Wirkung von Substanzen testen, die als Therapeutika für das menschliche Leiden in Frage kommen. Gerade für die medizinische Grundlagenforschung sind solche Versuche unverzichtbar. Aber auch ganz ohne die Verbindung zum Transcript Imaging sind transgene Mäuse als Krankheitsmodelle einsetzbar. Das bekannteste Beispiel ist wohl die Onkomaus, die man ebenso lax auch als HarvardMaus bezeichnet. Hintergrund für die Namensgebungen ist die Tatsache, dass von der Harvard-Universität ein Patent für die Herstellung von Mäusen angemeldet worden ist, welche nach Einführung menschlicher Onkogene schon früh in ihrem Leben Krebs entwickeln (zur Patentierung wird im Kapitel 7 etwas gesagt). Mittlerweile sind viele verschiedene menschliche Onkogene in Mäuse eingeführt worden und führen bei diesen zur Ausbildung unterschiedlicher Arten von Tumoren. An diesen Mäusen kann man Biotechnologie und moderne Medizin nun grundlegende Untersuchungen durchführen und studieren, ob potenzielle Medikamente eine Wirkung haben. Transgene Mäuse sind deshalb hervorragende Modelle, wenn nach neuen Medikamenten gegen Krebserkrankungen gesucht wird. Mäuse bieten den großen Vorteil, dass man durch Einführung der Gene in Inzuchtstämme Tiere erhalten kann, deren genetischer Hintergrund weitestgehend gleich ist. Das erleichtert die Auswertung von Versuchen ganz erheblich. Bereits heute stehen eine Vielzahl transgener Maus-Linien bereit, um unterschiedliche Krankheiten zu untersuchen und potenzielle Medikamente auszutesten. Besonders interessant sind dabei Stämme, die Symptome einer menschlichen Krankheit entwickeln, für die es im Tierreich sonst keine bekannte Entsprechung gibt. In den vergangenen Jahren haben sich bereits einzelne Firmen darauf spezialisiert, solche transgenen Maus-Linien zu entwickeln. Nicht nur Mäuse, auch eine ganze Reihe anderer Tiere werden für die Untersuchung und Entwicklung neuer Medikamente herangezogen. Das Schlagwort heißt hier Target-Validierung. Damit ist gemeint, dass die vielen neuen Angriffspunkte für potenzielle Medikamente auf ihre tatsächliche Eignung hin überprüft werden müssen. Darauf wurde zu Beginn des Kapitels schon hingewiesen. Die neuen Angriffspunkte, die im wissenschaftlichen Jargon als Targets bezeichnet werden, ergeben sich vor allem aus den Daten der Genomprojekte. Es sei an dieser Stelle auch erwähnt, dass sämtliche bis zum Jahr 2000 verfügbaren Medikamente gegen eine nur recht geringe Zahl molekularer Angriffspunkte gerichtet waren. Man schätzt diese Zahl auf rund 500. Die Fachleute gehen nun davon aus, dass die Erkenntnisse der Genomforschung bis zu 10.000 neuer solcher Targets liefern werden. Es ist deshalb von entscheidender Bedeutung, schon früh die richtigen, für die Wirkung eines zu entwickelnden Medikaments optimalen Targets zu identifizieren. Dazu werden entsprechende Tiermodelle entwickelt, die dem Stoffwechsel des Menschen möglichst nahe kommen sollen. Aufgrund der im Einzelfall oft nur geringen genetischen Distanz zum Menschen reicht die Palette von der Maus über den Zebrafisch und die Fruchtfliege Drosophila bis hin zum Fadenwurm Caenorhabditis elegans – um nur einige zu nennen. 2.7 Immer eine Nasenlänge voraus? Der Wettlauf mit pathogenen Keimen Seit der Mensch seine Leiden zu lindern oder zu heilen versucht, bedient er sich dazu der Mittel, die ihm die Natur zur Verfügung stellt. Beispiele sind uns allen bekannt und schließen Pflanzenextrakte ebenso ein wie das Penicillin. Die moderne Wissenschaft hat Wirkkomponenten isoliert, analysiert und in reiner Form als pharmazeutische Wirkstoffe zur Verfügung gestellt. Die resultierenden Medikamente werden heute erfolgreich gegen eine breite Palette menschlicher und tierischer Erkrankungen eingesetzt. Wir machen uns nur noch selten bewusst, dass uns dieses Arsenal an Medikamenten erst seit relativ kurzer Zeit zur Verfügung steht. Wer denkt heute schon daran, dass noch in der ersten Hälfte des vergangenen Jahrhunderts eine Wundinfektion häufig zu Amputationen oder zum Tode führte. Die durch eine offene Wunde in den Körper eindringenden Mikroorganismen konnten nicht beherrscht werden. Man musste der Ausbreitung von Infektionen oft hilflos zusehen. Erst mit der Entdeckung der Antibiotika bekam man die Möglichkeit, wirkungsvoll gegen solche Infektionen anzugehen. Die eher zufällige Beobachtung, dass Bakterien im Umkreis mancher Pilze nicht wachsen können, hat eine kaum zu schätzende Anzahl von Menschenleben gerettet. Heute ist uns das bereits so selbstverständlich, dass wir buchstäblich keinen Gedanken mehr daran verschwenden. 29 Verhelfen zum Durchblick: Auch Zebrafische gewinnen für das Studium von Krankheiten immer mehr Bedeutung. Biotechnologie und moderne Medizin Naturstoffe, Gentechnik und Kombinatorische Chemie Auf verlorenem Posten: Pestarzt im Mittelalter. Die Infektionskrankheiten sind gemäß einer Statistik der Weltgesundheitsorganisation WHO weltweit der Killer Nr. 2, knapp hinter den Herz/Kreislauferkrankungen. In den Industrienationen spielen sie allerdings nur eine geringe Rolle, so dass wir uns hier in einer trügerischen Sicherheit wiegen. Nur gelegentlich werden wir aus dieser Ruhe aufgeschreckt. Tuberkulose in Amerika wieder auf dem Vormarsch, heißt es dann zum Beispiel. Oder wir erfahren von Cholera-Epidemien in Ländern der Dritten Welt, von unheimlichen Erkrankungen durch Ebola- oder Lassa-Viren oder von Bakterien, die sich förmlich in die Erkrankten hineinfressen können. All das sind – meist pressewirksam aufbereitete – Beispiele dafür, dass unser Immunsystem in einem ständigen Kampf mit mikroskopisch kleinen Eindringlingen liegt. Meist ist unser Immunsystem erfolgreich. Aber, wie die obigen Beispiele belegen, längst nicht immer. In diesen Fällen braucht der Körper Unterstützung von außen. Dank der Antibiotika wurde eine wirksame medikamentöse Behandlung möglich. Erstmals konnten bakterielle Infektionen gezielt bekämpft werden. Allerdings bedeutete die großflächige Anwendung von Antibiotika auch, dass man ungewollt ein intensives Selektionsprogramm in Gang setzte. Und zwar ein Selektionsprogramm auf Organismen, die man nun ganz bestimmt nicht haben wollte; solche nämlich, die gegen die angewendeten Antibiotika unempfindlich waren. Denken wir an die Eckpfeiler der Genetik, Mutation und Selektion. Durch die Anwendung der Antibiotika wird auf eine Bakterienpopulation ein immenser Selektionsdruck ausgeübt. Unter diesem Druck werden nur solche Bak- 30 terien überleben können, die aus irgendeinem Grund gegen die Wirkung des Antibiotikums resistent geworden sind. Bei der riesigen Anzahl von Bakterien gibt es immer wieder mal eines, das diese Eigenschaft durch Mutation oder andere genetische Mechanismen erworben hat. Normalerweise würde diese Eigenschaft nicht von Vorteil sein und womöglich wieder verloren gehen. Liegt allerdings durch Anwendung des Antibiotikums ein Selektionsdruck an, rettet die Eigenschaft der Resistenz den Mikroorganismus vor dem Tod. Alle anderen Bakterien gehen zugrunde, nur das resistente kann überleben und sich munter weiter teilen. Für den Patienten, dem mit diesem Antibiotikum geholfen werden soll, möglicherweise eine Katastrophe. Resistente Formen von Bakterien finden sich daher – logischer- und bedauerlicherweise gleichermaßen – bevorzugt dort, wo Antibiotika angewendet werden. Gemeint sind unsere Krankenhäuser. Die breite Anwendung von Antibiotika macht zwar eine moderne Intensivmedizin überhaupt erst möglich. Immungeschwächte Personen oder solche mit großflächigen Wunden könnten sonst nicht überleben. Andererseits finden sich deshalb in Krankenhäusern zu einem hohen Prozentsatz auch krank machende, so genannte pathogene Bakterien, die bereits gegen eine Vielzahl von Antibiotika resistent geworden sind. Diese unter dem Namen Hospitalismus bekannte Tatsache ist ein Horror für Ärzte und Patienten gleichermaßen. Eine intensive Vorsorge durch das Sterilisieren von Räumen und Gerätschaften ist hier unbedingte Verpflichtung. Aber ganz ausschließen kann man eine Infektion nie. Dann braucht man ein wirksames Antibiotikum. Diese Spirale dreht sich seit vielen Jahrzehnten. Der Einführung eines neuen Antibiotikums folgt im Lauf der Zeit die Entwicklung resistenter Krankheitserreger. Gegen diese werden wieder neue Antibiotika eingesetzt und so wei- Biotechnologie und moderne Medizin ter und so weiter. Aber so langsam drohen uns die neuen Antibiotika auszugehen. Neben der intensiven Suche nach Wirkstoffen aus der Natur können nun mittels gentechnischer Methoden auch bekannte Wirkstoffe auf molekularer Ebene miteinander kombiniert werden. Vielleicht können wir die Spirale damit wieder ein Stückchen zu unseren Gunsten drehen. Grundsätzlich sind bei der Suche nach neuen Wirkstoffen zwei unterschiedliche Strategien möglich: zum einen ein gezielter Ansatz, der wie gerade beschrieben vorhandenes Wissen nutzt und aus den chemischen Bausteinen bekannter Wirkstoffe neue entwirft – das rationale Design von Wirkstoffen. Die Synthese dieser Wirkstoffe kann chemisch beziehungsweise mikrobiologisch/gentechnisch erfolgen. Zum anderen kann man wie im Fall des klassischen Screenings ungezielt vorgehen und nach Wirkstoffen suchen, die uns direkt von der Natur zur Verfügung gestellt werden. Dabei vertraut man auf einen möglichst hohen Durchsatz von Substanzen aus möglichst ungewöhnlichen Quellen. Diese Quellen bildeten bislang die vielerlei Organismen in der Natur, aber auch die Substanzbibliotheken der großen Chemiefirmen. In den letzten Jahren wurde noch eine neue Quelle erschlossen, die so genannte Kombinatorische Chemie. Bei der chemischen Synthese von Oligonukleotiden und Peptiden ist es möglich, die Syntheseschritte nicht mit definierten Einzelbausteinen, sondern mit einem Gemisch aller verfügbaren Einzelbausteine durchzuführen. Lässt man bei der Synthese von Oligonukleotiden an jeder Position alle vier NukleotidBausteine der DNA zu, dann ergibt sich in wenigen Synthesezyklen ein Gemisch von unzähligen, in der Nukleotid-Abfolge jeweils verschiedenen Oligomeren. Mit wenigen Syntheseschritten hat man eine ungeheure Vielzahl ähnlicher, aber strukturell unterschiedlicher Moleküle erzeugt. Für das klassische Screening, das auf den hohen Durchsatz unterschiedlicher Moleküle angewiesen ist, die beste Voraussetzung. Chemiker haben nun versucht, dieses Prinzip auch auf andere Substanzklassen anzuwenden. Das geschickte Mischen von Synthesebausteinen soll eine möglichst große strukturelle Vielfalt an Molekülen erzeugen, die sich in Testmodellen screenen lassen. Diese neue Vorgehensweise steht im krassen Gegensatz zur traditionellen Synthesechemie, die immer auf die Herstellung einer einzigen, genau definierten Substanz gerichtet war. Sie erfordert ein hohes Maß an Planung und logistischem Geschick. Eine große Herausforderung besteht zum Beispiel darin, aus dem Gemisch vieler Verbindungen die gesuchte zu identifizieren. Trotz der Schwierigkeiten hat die Kombinatorische Chemie neue Belebung in das Gebiet der Wirkstoffsuche gebracht. Neue apparative Entwicklungen begleiten sie. Die Kombinatorische Chemie hat sich bereits als echte Bereicherung für die synthetische Chemie ganz allgemein erwiesen. Bei der Entwicklung von Antibiotika hat man sich zunächst ganz auf die Natur verlassen. In umfangreichen Screeningprogrammen wurde und wird nach natürlichen Quellen für antibiotisch wirksame Sub- Kampf im Verborgenen: InfluenzaViren haben sich an die Oberfläche einer Zelle geheftet. stanzen gefahndet. Hier begegnen uns freundliche Mikroorganismen, von denen – aus bislang nicht vollständig verstandenen Gründen – solche Substanzen produziert werden. Aber auch Pflanzen oder Tiere kommen als potenzielle Quellen in Frage. Heute dehnt man die Suche vor allen Dingen auf Mikroorganismen aus, die ungewöhnliche Standorte besiedelt haben. Dazu gehören z. B. solche, die sehr hohe Temperaturen oder Drücke aushalten können. Auch die synthetische Chemie hat sich schon früh als hilfreich erwiesen. Aufbauend auf Strukturen der natürlichen Antibiotika hat man neue Strukturen hergestellt oder natürliche Strukturen abgeändert. Gerade die semisynthetischen Antibiotika, in denen die natürlichen Strukturen chemisch abgeändert werden, waren und sind noch sehr erfolgreich. Gentechnische Methoden eröffnen ganz neue Ansatzpunkte. In den letzten Jahren konnten die Gene, 31 Biotechnologie und moderne Medizin die für die Synthese einzelner Antibiotika verantwortlich sind, großenteils kloniert werden. Daher ist man jetzt in der Lage, die unterschiedlichen Syntheseschritte durch Austausch von einzelnen Genen miteinander zu kombinieren. Das ermöglicht – zumindest in der Theorie – Synthesen, die ein Chemiker selbst mit den modernsten Methoden nicht in sinnvollen Ausbeuten hinbekommt. Allerdings sind auch die Ausbeuten bei den gentechnischen Ansätzen meist noch unbefriedigend. Hier ist noch eine Menge Arbeit erforderlich. Durch Anwendung gentechnischer Methoden gewinnt man auch ein besseres Verständnis pathogener Mikroorganismen und erkennt die „Schwachstellen“ dieser Mikroorganismen besser. Vor allem die Daten aus den Genomprojekten werden uns hier noch viele Erkenntnisse liefern. Das erlaubt den Aufbau von Testsystemen, durch die neue und besonders wirksame Antibiotika gefunden werden können. Man kann auch abschätzen, ob ein Mikroorganismus gegen die Wirkung eines neuen Antibiotikums rasch resistent werden kann. Natürlich wird man bevorzugt Antibiotika entwickeln, bei denen das nicht der Fall ist. Auch an anderer Stelle wirkt die Gentechnik quasi im Verborgenen. Jedes Jahr werden Stämme von Influenza-Viren, die uns mit steter Regelmäßigkeit heimsuchen und zu mehr oder minder schweren Grippefällen führen können, genauestens untersucht. Die Wissenschaftler entscheiden dann, ob es sich bei den immer wieder veränderten Influenza-Stämmen um sol- „Polizei-Schutz“: Während der Grippe Epidemie 1918 versuchen sich Polizisten in Seattle gegen das Influenza Virus zu schützen. 32 che handelt, die das menschliche Immunsystem bereits kennen sollte, oder um neue. Im letzteren Falle würde man schleunigst darangehen, einen Impfstoff herzustellen. Bei der Klassifizierung der Influenza-Viren greifen die Wissenschaftler heute auch auf die Methode des genetischen Fingerabdrucks zurück, die wir an anderer Stelle noch etwas genauer kennen lernen werden. Influenza-Viren und Infektionskrankheiten Die Grippe wird als Krankheit häufig unterschätzt. Sie lehrt uns ganz nebenbei etwas über das Risikoempfinden des Menschen. Wenn ein Risiko fester Bestandteil unseres Lebens ist, nehmen wir es gar nicht mehr besonders war. Das Risiko, an Grippe zu erkranken, ist ausgesprochen groß. Die Auswirkungen dieser Erkrankung allerdings sind vermeintlich relativ gering. Ein bisschen Unwohlsein, vielleicht Fieber und schlimmstenfalls ein paar Tage Bettruhe. Doch das kann sich mit dem vorherrschenden Virusstamm schlagartig ändern. Für das Jahr 1918 wird die Zahl der Toten, die von einer Grippeepidemie gefordert wurden, auf über 20 Millionen weltweit geschätzt. Das Influenza-Virus kann also hochinfektiös und tödlich sein. Aus der jüngeren Vergangenheit sind Epidemien bekannt, die von der so genannten Asiatischen Grippe 1957 oder von der Hongkong-Grippe 1968 ausgelöst worden sind. Auch diesen Grippewellen sind Millionen von Kranken und Tausende von Toten anzulasten. Auch aus der jüngeren Vergangenheit sind, besonders wieder in Asien, Epidemien von allerdings nur begrenztem Ausmaß bekannt. Das Influenza-Virus zeichnet sich dadurch aus, dass es seine äußere Gestalt, seine Hülle, ständig ändern kann. Dadurch unterläuft es die Fähigkeit des menschlichen Immunsystems, sich eine Konfrontation mit einem bestimmten Erreger zu merken und beim nächsten Mal besser gerüstet zu sein. Eine Infektion mit einem InfluenzaVirus ist für unser Immunsystem immer wieder neu. Nicht alle Viren haben diese Fähigkeit. Nur deshalb konnte es gelingen, das Variola-Virus, das die gefürchteten Pocken Biotechnologie und moderne Medizin verursacht, praktisch auszurotten. Der gegen VariolaViren entwickelte Impfstoff hat zuverlässig geschützt und es haben sich keine neuen Varianten des Virus gebildet. Die Pocken gelten daher als besiegt. Nur noch in zwei Hochsicherheitslabors, eines in den USA und eines in Russland, sind solche Viren eingelagert. Da die Erbinformation des Variola-Virus vollständig bekannt ist, könnten auch sie vernichtet werden. An das Variola-Virus würden dann nur noch elektronische Einträge in verschiedenen Datenbanken erinnern. Auch die begeistertsten Artenschützer werden dagegen kaum etwas einzuwenden haben. Der Vergleich zwischen Influenza- und VariolaViren belegt die These sehr eindrucksvoll, nach der eine hohe genetische Varianz für das Überleben einer Spezies von entscheidender Bedeutung ist. Das Prinzip Mutation und Selektion könnte daher auch in Variation und Selektion umbenannt werden. In der Natur ist eine Spezies begünstigt, deren Mitglieder – unter Nutzung aller vorhandenen Mechanismen – möglichst große Unterschiede in der Ausprägung einzelner Merkmale aufweisen. Das Influenza-Virus hat hier einen ganz besonderen Trick entwickelt. Stämme, die nur entweder den Menschen oder Vögel infizieren können, sind gleichermaßen befähigt, Schweine zu befallen. Im Schwein können diese Stämme Teile ihres genetischen Materials austauschen. Daraus können dann Stämme resultieren, die für den Menschen wieder besonders gefährlich sind. 2.8 Mit Killerzellen gegen Tumore Neue Waffen im Kampf gegen Krebs Gerade für die Immunologie hat die moderne Biotechnologie entscheidende Fortschritte gebracht. Die in der Immunologie gewonnenen Erkenntnisse machen nun unter anderem neue Ansätze in der Behandlung von Krebs möglich. Krebszellen werden vom Immunsystem unterschiedlich gut als verändert, als fremd erkannt. Im Krankheitsfall reicht diese Erkennung aber ganz offensichtlich nicht aus, um die Tumorzellen zu eliminieren. Man kann nun dem Immunsystem des Menschen etwas auf die Sprünge helfen. Beispielsweise weiß man, dass Tumorgewebe von bestimmten weißen Blutkörperchen, den Lymphozyten, angegriffen wird. Lymphozyten, die das besonders effizient tun, werden als tumorinfiltrierende Lymphozyten (TIL) bezeichnet. Wenn Tumorgewebe aus einem Patienten entfernt wird, dann können aus diesem Gewebe die TILs isoliert und in vitro gezüchtet werden. Die wachsenden TILs werden nun mit einem Protein versetzt, das eine stimulierende Wirkung auf die Immunzellen hat. Die Wirkung des Proteins ist mit einem Kommando vergleichbar, das einen Wachhund scharf macht. Zu der Klasse „scharfmachender“ Proteine gehören verschiedene Interleukine, vor allem Interleukin-2, aber auch der Faktor GM-CSF und andere. Eine Reihe dieser Lebenswichtige Patrouille: Krebszellen können vom Immunsystem erkannt und attackiert werden. 33 Biotechnologie und moderne Medizin Stoffe werden heute auch als Medikamente eingesetzt und werden im Produktteil der Broschüre vorgestellt. Die behandelten Zellen werden den Patienten reinfundiert. Sie patrouillieren jetzt quasi mit geschärften Sinnen durch den Körper und sie greifen Tumorzellen noch aggressiver an. Eine andere Idee geht dahin, die Krebszellen selbst mit einem Alarmsignal auszustatten, damit sie das schlummernde Immunsystem wachrütteln können. Um dies zu erreichen führt man in Krebszellen die Gene ein, deren oben erwähnten Proteinprodukte eine stimulierende Wirkung auf Immunzellen haben. Dadurch macht die Tumorzelle das Immunsystem nachdrücklich auf sich aufmerksam. Den Immunzellen fallen dann auch Unterschiede auf, die sie sonst ignorieren würden (vergleiche Kasten, S. 20). Natürlich müssen die Krebszellen dazu erst einmal isoliert und dann außerhalb des Körpers gentechnisch mit den entsprechenden Genen versehen werden. Ist das geschehen, werden die Krebszellen durch Bestrahlung abgetötet – man will ausschließen, dass sie im Körper womöglich unkontrolliert zu wachsen beginnen – und den Patienten reinfundiert. In Tierversuchen hat man mit diesem Verfahren bereits ermutigende Resultate erzielt. Offenbar werden diese Krebszellen vom Immunsystem tatsächlich besser erkannt und – nachdem die verräterischen Oberflächenstrukturen erst einmal identifiziert sind – auch verwandte Tumorzellen angegriffen. Besonders fasziniert die Möglichkeit, Metastasen auf diese Art zu bekämpfen. Die meisten Krebspatienten erliegen nicht einem Primärtumor, sondern erst später dessen Metastasen. Ein Erkennen von Tumorzellen durch das Immunsystem würde bedeuten, dass sämtliche von einem bestimmten Tumor abstammenden Zellen überall im Körper aufgespürt und unschädlich gemacht werden können, also auch entstehende Metastasen. Einen anderen Ansatzpunkt, diesmal allerdings nicht auf ganzen Zellen basierend, bietet die bereits erwähnte Erkenntnis, dass Tumoren in ihrem Wachstum von der Versorgung mit Sauerstoff und Nährstoffen abhängen. Ein entscheidender Schritt des Tumorwachstums, vielleicht der entscheidende überhaupt, ist daher eine Aktivierung von Blutkapillaren, die zum Tumor hinwachsen müssen. Passiert das nicht, bleibt der Tumor klein und erreicht nur eine Größe von 1–2 Kubikmillimetern. Er wird dann meist gar nicht wahrgenommen. Es ist nun gelungen, die Stoffe zu identifizieren, die das Wachstum der Blutkapillaren, die so genannte Angiogenese, regulieren. Im Zusammen- 34 hang mit Krebs sind besonders solche Stoffe interessant, die als Inhibitoren des Wachstums wirken und deshalb als Angiogenese-Inhibitoren bezeichnet werden. Rund 20 solcher Inhibitoren befinden sich derzeit in unterschiedlichen Phasen der klinischen Prüfung, fünf davon bereits in der Klinischen Phase III und damit in der letzten Testphase vor der Zulassungsprüfung. Wie immer bei solchen Entwicklungen bleibt abzuwarten, ob sich die großen Hoffnungen, die sich mit ihnen verbinden, auch wirklich erfüllen. 2.9 Von Differenzierung und Differenzen Zellen als potenzielle Medikamente Doch zurück zu ganzen Zellen und ihrem möglichen Einsatz als Therapeutika. Hier rückte eine ganz bestimmte Sorte von Zellen in den Mittelpunkt des Interesses, die so genannten Stammzellen. Stammzellen besitzen die Fähigkeit, sich immer wieder teilen und die verschiedensten Entwicklungsrichtungen einschlagen zu können. In der Fachsprache heißt das: sich unterschiedlich „differenzieren“ zu können. Sie bilden die Ausgangsbasis für die Entwicklung von Geweben und Organen. Die befruchtete Eizelle ist gewissermaßen die Urkeimzelle des ganzen Organismus. Aus ihr gehen alle anderen Zelltypen hervor. Doch schon nach wenigen Zellteilungen verliert sich diese Totipotenz; einige Tochterzellen entwickeln sich zur Plazenta, die anderen zum Embryo. Die embryonalen Stammzellen sind immer noch sehr unterschiedlich differenzierbar. Aus ihnen entstehen alle im Organismus benötigten Zelltypen. Man bezeichnet sie daher als pluripotent. Gewebetypische Stammzellen findet man in vielen Geweben des ausgewachsenen Organismus. Dort sorgen sie für den Ersatz von ausgefallenen Zellen. Es gibt Blutstammzellen im Knochenmark, Nervenstammzellen im Gehirn oder Muskelsatellitenzellen im Muskelgewebe. Ihre Fähigkeit, sich in verschiedene Zelltypen ausdifferenzieren zu können, ist jedoch beschränkt. Knochenmarkzellen können zwar verschiedene Blutzelltypen bilden, aber keine Muskel- oder Nervenzellen; sie sind nur noch multipotent. (Ganz so streng scheinen diese Beschränkungen nach den neuesten Erkenntnissen allerdings doch nicht zu gelten, wie weiter unten noch gezeigt wird.) Aufgrund ihrer Pluripotenz sind die humanen embryonalen Stammzellen (hES) für die biomedizini- Biotechnologie und moderne Medizin sche Forschung von großem Interesse. Als man Anfang 1999 erstmals Methoden entwickelt hatte, humane embryonale Stammzellen in Kultur zu halten, also pluripotente menschliche Zelllinien zu erzeugen, taten sich bislang ungeahnte Möglichkeiten auf. Die Herstellung neuer Gewebezellen und Gewebe (das sog. tissue engineering) oder auch ganzer Organe für Transplantationen rückte in den Bereich des Möglichen. Erfolge dieser Art hatte es bislang nur mit Hautzellen gegeben. Allerdings ist die Forschung mit humanen embryonalen Stammzellen, die aus Föten oder künstlich befruchteten Eizellen gewonnen werden, heftig umstritten und in einigen Ländern, u.a. Deutschland, eindeutig verboten. Denn die humanen embryonalen Stammzellen gelten als Embryonen im Sinne des Embryonenschutz-Gesetzes, mit denen nicht geforscht werden darf. Als alternative Quelle für humane embryonale Stammzellen kommen geklonte Zellen in Betracht. Zu ihrer Herstellung entfernt man im Prinzip den Kern einer befruchteten (Säugetier-)Eizelle und ersetzt ihn durch den Zellkern einer ausgewachsenen menschlichen Zelle. Im Ergebnis erhält man eine „befruchtete“ (Säugetier-)Eizelle, deren embryonale Tochterzellen das Erbgut der menschlichen Körperzelle besitzen. Aus ihnen gewinnt man nach Reprogrammierung die wertvollen Stammzellen. Auf die Methode des Klonens wird in Kapitel 3.5 näher eingegangen. Über erste Forschungen mit Rindereizellen und menschlichen Zellkernen ist bereits berichtet worden. Die Arbeiten haben nach Auskunft der Forscher zum Ziel, künstliche Organe herzustellen, die zu den individuellen Gewebetypen von Transplantationspatienten passen. Die ethische Bewertung solcher als „therapeutisches Klonen“ bezeichneten Experimente ist jedoch ebenfalls umstritten. Während die Debatten um das Arbeiten mit humanen embryonalen Stammzellen immer heftiger wurden, brachten die Zellforscher mit einer Reihe sensationeller Ergebnisse ein altes Dogma zum Einsturz. Die multipotenten Stammzellen in den Geweben ausgewachsener Organismen waren anscheinend flexibler, als man bislang angenommen hatte! In kurzer Folge erreichten Berichte die Öffentlichkeit, in denen die Umwandlung von Blutstammzellen in Nervenzellen und umgekehrt oder auch von Blutstammzellen in Leberzellen beschrieben wurde. Sogar die Bildung von Hirnzellen, Leberzellen und allen drei Arten von Muskelzellen aus einer einzigen, allerdings seltenen Stammzellsorte des Knochenmarks wurde berichtet. Offenbar ist es doch möglich, durch Beeinflussung der komplizierten Wachstumsbedingungen die Stammzellen der Gewebe „umzuprogrammieren“. Mit dieser Technik könnte sich in vielen Fällen die Verwendung humaner embryonaler Stammzellen vermeiden lassen. Außerdem können „umprogrammierte“ Stammzellen den Vorzug besitzen, vom Patienten selbst abzustammen. Bei Organtransplantationen vermiede man damit die sonst bei Transplantationen üblichen Abstoßungsreaktionen. Zur Jahrhundertwende wurde untersucht, in welchen Eigenschaften sich die „erwachsenen“ Stammzellen von den humanen embryonalen Stammzellen unterscheiden. Noch steckt die Stammzellforschung in den Kinderschuhen. Doch gelangen bereits erstaunliche Entdeckungen. Glaubte man z.B. bislang, dass sich Hirnzellen nicht mehr vermehren lassen, so entdeckte man vor kurzem, dass neuronale Stammzellen im Hirn von Vögeln neue Neuronen bilden können. Abgesehen von den Möglichkeiten für die Enträtselung der Entwicklung von Geweben und ganzen Organismen bieten Stammzellen therapeutische Perspektiven, die noch vor wenigen Jahren als Science Fiction abgetan worden wären. Muskelstammzellen, 35 Klone können auf unterschiedliche Weise entstehen; beim „DollyVerfahren“ wurde eine entkernte Eizelle mit der genetischen Information einer Euterzelle ausgestattet. bare Blutstammzellen ließen sich zudem gentechnisch mit therapeutisch wichtigen Eigenschaften ausrüsten, z.B. mit der Resistenz gegen Zytostatika. 2.10 Heilen mit Genen Die Somatische Gentherapie Durch die ersten Teilungen einer befruchteten Eizelle bildet sich ein scheinbar unstrukturierter Zellhaufen, eine Blastocyste. aus denen sich Herzmuskelgewebe züchten lässt, zeigten im Tierversuch bereits ihr Potenzial zur Therapie schwerer Herzkrankheiten. Zuckerkranke könnten in Zukunft von Bauchspeicheldrüsen-Inselzellen profitieren, die aus Stammzellen ex vivo gezüchtet und dann implantiert werden. Eine deutsche Firma züchtet bereits neues Hautgewebe aus Haarwurzeln, die auch Oberhautstammzellen enthalten. Nur 50 bis 100 Haare werden dazu benötigt. Innerhalb von vier Wochen wachsen daraus in speziellen Kulturen „auflegbare“ Hautzellen. Humane neuronale Stammzellen könnten sich vielleicht schon bald zur Behandlung von Rückenmarkverletzungen oder der Parkinsonkrankheit, bei der Hirnzellen zerstört werden, einsetzen lassen. Tierversuche mit Mäusen und Ratten zeigten hier positive Resultate. Auch die schwierige Kultivierung von Stammzellen machte große Fortschritte. Heute kann man bereits Blut- und Nervenstammzellen ex vivo vermehren und monatelang in Kultur halten. Das bedeutet einen großen Fortschritt z.B. für die Chemotherapie von Krebserkrankungen. Hier könnten beliebig vermehrbare Blutstammzellen einen oftmals folgenschweren Engpass beseitigen, weil Zytostatika neben den Tumorzellen auch Blut bildende Zellen zerstören. Wir werden darauf bei der Vorstellung von Medikamenten wie GCSF oder GM-CSF zurückkommen. Zurzeit muss man noch Knochenmarkzellen von geeigneten Spendern transplantieren, um die Blutbildungskapazität des Patienten nach der Behandlung zu regenerieren. Kultivier- 36 Der letzte Satz des vorangegangenen Kapitels könnte sehr wohl auch das aktuelle einleiten. Anfang der 90er Jahre machte ein neues Verfahren von sich reden: die Somatische Gentherapie. Das Verfahren folgte der Überlegung, dass es besser ist, ein Übel an der Wurzel zu packen, als ständig nur die Symptome zu kurieren. Die Somatische Gentherapie kann prinzipiell dort eingesetzt werden, wo eine Krankheit auf einem singulären Gendefekt beruht. Bei einer besonders schweren Form der Immunschwäche gehen beispielsweise weiße Blutkörperchen zugrunde, weil den Zellen ein bestimmtes Enzym, die Adenosin-Desaminase (ADA), fehlt. Mit dem Ausfall der weißen Blutkörperchen bricht der Schutzwall des Körpers gegen Mikroorganismen zusammen. Die Patienten haben normalerweise keine Überlebenschancen und sterben schon sehr früh an Infektionen. Die Krankheit ist sehr selten. In den 70er Jahren gingen Bilder des so genannten „Bubble Boy“ um die Welt, eines Jungen, der an dieser schweren Immunschwäche litt und in einem keimfreien Zelt von der Umwelt abgeschirmt werden musste. Er starb trotz dieser Maßnahmen schon früh. Im Lauf der Zeit lernte man, das fehlende Enzym zu reinigen und den Patienten zu applizieren. Damit ließen sich die Überlebenschancen und die Lebensqualität für die Patienten deutlich verbessern. Die Methoden der Gentechnik zeigten, dass die genetische Information für das Enzym ADA bei den Patienten fehlerhaft war. Da die Krankheit offenbar allein durch diesen Fehler verursacht wurde, sahen die Mediziner eine neue, faszinierende Möglichkeit der Behandlung. Könnte es möglich sein, die intakte genetische Information für das Enzym in die entsprechenden Zellen der Patienten einzubringen? Diese müssten dann ja eigentlich auch wieder in der Lage sein, das intakte Enzym zu produzieren, und der Patient dadurch gesunden. Diese Möglichkeit wurde in den USA konsequent untersucht. Die erforderlichen Techniken waren dank jahrelanger Forschung auf unterschiedlichen Gebieten verfügbar. So wurden einer jungen Patientin Biotechnologie und moderne Medizin Blutzellen entnommen und außerhalb ihres Körpers mit den Methoden der Zellkultur vermehrt. In diese Zellen wurde dann das zuvor isolierte, intakte Gen für das Enzym ADA eingebracht. Nach vielen Arbeitsschritten standen genügend veränderte Zellen zur Verfügung, um sie der Patientin wieder zurückzugeben. Diese überstand die ganze Prozedur problemlos und ihr Gesundheitszustand verbesserte sich. Somatische Gentherapie in der Diskussion Die Geschichte des ersten gentherapeutischen Experiments ist schnell niedergeschrieben. Doch gingen ihr heftige Debatten voraus. Die genaue Art und Weise des geplanten Vorgehens musste von den beteiligten Forschern und Ärzten einem Gremium zur Begutachtung vorgelegt werden. Diese Fachleute waren längst nicht alle der Meinung, dass die vorgeschlagene Behandlungsmethode schon ausgereift genug sei. Von einer wirklichen Therapie könne nicht die Rede sein. Außerdem strengte Jeremy Rifkin, der vielleicht bekannteste Gentechnik-Gegner in den Vereinigten Staaten, mit seiner Organisation sogar eine Klage vor dem Bundesgerichtshof in Washington an, um die Durchführung der Versuche zu verhindern. Doch French Anderson, ein Motor bei der Entwicklung gentherapeutischer Verfahren, trieb unerbittlich an. Sowohl die wissenschaftlichen wie nichtwissenschaftlichen Vorwürfe, denen er sich ausgesetzt sah, schienen ihn nur noch mehr zu beflügeln. Eine seiner Begründungen ging lapidar in die Richtung, dass seine Patienten mit dem Sterben leider nicht warten würden, bis auch die letzten Zweifel ausgeräumt seien. Dennoch gab es viele Kritiker, nach deren Meinung hier viel zu schnell vorgegangen wurde. So wie Anderson mit dem Abwenden von Leid und der Rettung von Leben argumentierte, so warfen ihm die Kritiker vor, das Leben der Patienten seinem wissenschaftlichen Ehrgeiz zuliebe leichtfertig aufs Spiel zu setzen. Diese zum Teil sehr emotionale Auseinandersetzung zog sich über viele Monate hin. Der oben grob skizzierte Versuch konnte dann im Jahr 1990 doch begonnen werden. Das positive Ergebnis fand eine fast euphorische Würdigung in der internationalen Presse. Es zeichnete sich ja ein Weg ab, auf dem eine Krankheit womöglich an der Wurzel zu packen war. Statt einer Linderung von Symptomen bot dieses Vorgehen die Möglichkeit, die eigentliche Ursa- che der Krankheit auszuräumen. Womöglich stand eine Revolution in der Medizin bevor. Unruhe entstand auch in den großen Pharmafirmen. Benötigte man am Ende schon in absehbarer Zeit kaum noch Medikamente, weil die meisten Krankheitsursachen mit diesem Verfahren ausgeräumt sein würden? Stand ein völliger Umbruch in der medizinischen Versorgung bevor? In der Berichterstattung wurde dabei völlig übersehen, dass die normale Therapie der Patientin (die kleine Ashanti De Silva wird als erste Patientin der Somatischen Gentherapie wohl in die Geschichte der Medizin eingehen) nie abgesetzt wurde. Man konnte zunächst eigentlich nur feststellen, dass es ihr besser ging als vorher. Allerdings konnte man nicht definieren, welchen Anteil daran die Somatische Gentherapie hatte. Denn teils wurde das fehlende Enzym von den gentechnisch veränderten Zellen im Körper der Patientin selbst produziert, teils wurde es weiterhin medikamentös appliziert. Die Menge des medikamentös verabreichten Enzyms konnte im Laufe der Zeit immerhin deutlich gesenkt werden. Ein positives Signal also, aber kein Grund zur Euphorie. Im September des Jahres 1999 hat die Somatische Gentherapie einen schweren Rückschlag erlitten. Bei der Durchführung eines Tests starb ein 18-jähriger Patient, der wegen eines keineswegs lebensbedrohenden Enzymmangels behandelt worden war. Der Patient erlag offenbar einer Abwehrreaktion gegen die als Genfähren verwendeten, gentechnisch veränderten Adenoviren. Dieser Vorfall hat neue Diskussionen um die Anwendung der Somatischen Gentherapie ausgelöst. Er zeigte sehr deutlich, dass die Methoden noch nicht ausgereift sind und insbesondere die verwendeten Genfähren verbessert werden müssen. Es herrscht aber die Meinung vor, dass mit einer kontrollierten Testung des Verfahrens weitergemacht werden 37 Bubble boy: Beim völligen Versagen des Immunsystems kann jede Infektion tödlich sein. Die Patienten müssen gegen die Außenwelt abgeschirmt werden. Biotechnologie und moderne Medizin Das Prinzip der Somatischen Gentherapie in vitro: Den Patienten werden Zellen entnommen, gentechnisch verändert und zurückgegeben. Beim nicht dargestellten in vivo Verfahren werden die Zellen direkt im Körper des Patienten gentechnisch verändert. soll. Im Erfolgsfall werden große Vorteile für die Patienten gesehen. Wegen der großen Hoffnungen, die sich an das neue Verfahren generell knüpften, wurden schon sehr schnell auch Versuche mit Patienten durchgeführt, die an Krebs, Cystischer Fibrose oder anderen Krankheiten litten. Völlig neue Strategien im Kampf gegen diese Krankheiten zeichneten sich ab. Die Forscherteams wurden von Patienten, die von der neuen Methode profitieren wollten, geradezu bestürmt. Doch die Ergebnisse waren ernüchternd. Es hat sich gezeigt, dass noch zu viele Fragen ungeklärt sind. Der Schritt in die klinische Praxis hat Erwartungen geweckt, die von dieser jungen Methode noch nicht erfüllt werden können. Die vorhandenen methodischen Instrumente sind längst noch nicht ausreichend und es muss sicher noch viel grundlegende Arbeit in das Verfahren investiert werden. Durch die schnelle Anwendung am Patienten wird leicht verkannt, dass die routinemäßige Durchführung gentherapeutischer Verfahren noch eine ganze Reihe von Jahren auf sich warten lassen wird. Andererseits zeichnet sich immer wieder ab, dass die Methode in bestimmten Bereichen Erfolg versprechend eingesetzt werden kann. Beispiele dafür finden sich im Bereich der Herzerkrankungen, wo nach Ballondilatationen die Restenose, also das Wiederverschließen der Blutgefäße an der gleichen Stelle, verhindert werden soll. Die Hoffnung, dass die Somatische Gentherapie das medizinische Parkett im Sturm erobern würde, hat sich also zunächst einmal nicht erfüllt. Doch denken 38 wir einfach an die Entwicklung der Organtransplantation zurück. Erinnern wir uns daran, dass viele Jahre und Jahrzehnte vergingen, bevor die heute üblichen hohen Erfolgsquoten erreicht waren. Mit Blick auf die Somatische Gentherapie darf man die Hoffnung hegen, dass sie schon in bedeutend kürzerer Zeit ihren Platz in der Medizin finden wird. Doch wird noch viel Arbeit erforderlich sein. Es zeichnet sich aber nicht nur für notorische Optimisten ab, dass dieses elegante Verfahren zukünftig eine wichtige Bereicherung in unserem medizinischen Repertoire sein wird. 2.11 Schnell und präzise Die Möglichkeiten der genetischen Diagnostik Die genetische Diagnostik beginnt mit der mikroskopischen Betrachtung von Chromosomen. Veränderungen in Anzahl oder Gestalt der Chromosomen können den Verdacht nahe legen, dass ein bestimmter Defekt zur Ausprägung kommen wird. Ein bekannter Fall ist die Trisomie 21, bei der eine zusätzliche Kopie von Chromosom 21 in den Zellen vorhanden ist. Die Folge ist das Down Syndrom, das auch unter dem Namen Mongolismus bekannt ist. Aber schon das Fehlen oder der Austausch von Chromosomenteilen kann unter dem Mikroskop erkannt und mit bestimmten Krankheiten in Verbindung gebracht werden. In molekulare Dimensionen stößt man vor, wenn eine Krankheit an eine leicht nachweisbare Veränderung auf DNA-Ebene gekoppelt ist. Bei solchen leicht nachweisbaren Veränderungen handelt es sich zum Beispiel um das Fehlen einer Schnittstelle für ein Restriktionsenzym. Eine derartige Veränderung tritt in der DNA recht häufig auf und ist tatsächlich einfach zu detektieren. Rein zufällig kann eine derartige Veränderung mit dem Auftreten einer bestimmten Krankheit korreliert sein. Genetisch gesprochen: Zwei Mutationen sind unabhängig voneinander entstanden, die eine führt zum Auftreten der Krankheit, die andere zum Fehlen der Restriktionsschnittstelle. Beide Mutationen liegen auf der DNA nicht allzu weit voneinander entfernt. Daher werden sie fast immer gemeinsam vererbt. Man kann aus dem leicht nachweisbaren Fehlen der Restriktionsschnittstelle deshalb indirekt auf das Vorliegen der Krankheit schließen. Allerdings kann die Restriktionsschnittstelle vom Gen, das die Krankheit verursacht, durch so genannte Rekombinationsereignisse getrennt werden. Je wei- Biotechnologie und moderne Medizin ter das interessierende Gen und die Restriktionsschnittstelle auseinander liegen, desto häufiger wird das geschehen. Die Aussage ist daher immer mit einiger Unsicherheit behaftet. Die Unterschiede in der Anzahl von Schnittstellen für Restriktionsenzyme werden ziemlich umständlich als Restriktionsfragment-Längen-Polymorphismen bezeichnet und mit RFLP abgekürzt. Die DNA-Analyse gestattet aber noch sehr viel genauere Aussagen. Das menschliche Genom besteht, so schätzt man, aus etwa 3 Milliarden Basenpaaren. Rund 140.000 Gene sollen in der gesamten DNA verschlüsselt sein, wobei noch nicht einmal 10% der insgesamt vorhandenen Basenpaare für die Speicherung der genetischen Information genutzt werden. Welche Funktion die Hauptmasse der Basenpaare eigentlich hat, weiß man heute noch gar nicht. Wenn das Humane Genomprojekt beendet sein wird, ist man vielleicht schlauer. Trotz der immens großen und auf den ersten Blick unüberschaubaren Zahl von Nukleotiden im menschlichen Genom kann man heute detaillierte Analysen durchführen. Denn man kann bekannte, kurze DNA-Sequenzen im Genom genau identifizieren. Das Prinzip ist verblüffend einfach. Man benutzt dazu so genannte DNA-Sonden. Zunächst erscheint es fast unmöglich, aus 3 Milliarden Basenpaaren eine Abfolge von beispielsweise nur etwa 20 gezielt herauszufinden. Der Vergleich mit der Nadel im Heuhaufen drängt sich auf, nur dass es diesmal eine Nadel in einem riesigen Haufen anderer Nadeln ist. Doch denken wir einmal an das Modell der DNA zurück. Da vier verschiedene Nukleotide vorhanden sind, ergeben sich für eine definierte Position in der Nukleotidkette statistisch vier Möglichkeiten dafür, wie sie besetzt sein kann. Bei zwei aufeinander folgenden Positionen ergeben sich bereits 16 Möglichkeiten der Anordnung – das folgt einfach aus der Wahrscheinlichkeitsrechnung durch die Multiplikation von 4 mit 4. Man kann das selbst überprüfen, indem man sich die Kombinationen nebeneinander schreibt. Bei 3 Positionen ist man bereits bei 64 Möglichkeiten angekommen. Manch einer wird sich an die Geschichte mit dem Schachbrett und den Reiskörnern erinnert fühlen, obwohl die zugrunde liegende Mathematik etwas unterschiedlich ist. Die Eigenschaft, in wenigen Schritten zu astronomischen Zahlen zu gelangen, ist beiden gemeinsam. Für eine Länge von 20 Nukleotiden in der DNA ergeben sich bereits mehr als eine Billion Möglichkeiten der Anordnung. Dagegen erscheint selbst die zunächst riesige Zahl von 3 Milliarden klein. 1 2 6 7 8 13 14 15 19 20 4 3 9 21 5 10 11 12 16 17 18 22 X Und das bedeutet rein rechnerisch, dass eine definierte Abfolge von 20 Nukleotiden in der Gesamtheit der menschlichen DNA ein Unikat sein kann. Und dank dieser Einmaligkeit kann man eine solche Abfolge auch aufspüren. Tatsächlich ist dieses kurz angerissene Prinzip die Grundlage vieler wichtiger Verfahren in der Gentechnik. Das gezielte Auffinden von Genen aus Genbanken ist dabei sicher eines der wichtigsten. Voraussetzung ist immer, dass man eine Vorstellung von der gesuchten Zielsequenz hat. Man kann dann diese Sequenz chemisch synthetisieren, mit einem Marker versehen und mit der zu untersuchenden DNA reagieren lassen. Eine Bindung wird nur erfolgen, wenn die gesuchte Zielsequenz vorhanden ist. Die einzelsträngige Sonde bindet sich dann nach dem Komplementaritätsprinzip an den Zielstrang. Die Methode ist zu einer solchen Perfektion entwickelt worden, dass man in der Abfolge von 20 Nukleotiden sogar erkennen kann, ob es an einer Position innerhalb der Abfolge eine Änderung gegeben hat. Eine solche Änderung, bei der es sich um eine klassische Mutation handeln würde, kann ja dramatische Konsequenzen haben. Wie bereits beschrieben wurde, kann ein einziger solcher Austausch den Unterschied zwischen dem normalen Wachstum einer Zelle oder Krebs bedeuten. Und genau diesen Unterschied kann man mittels genetischer Diagnosen feststellen. Das Verfahren der genetischen Diagnose kommt dabei mit sehr geringen Mengen an Ausgangs-DNA aus. Diese Tatsache ist nicht selbstverständlich, son- 39 Down Syndrom: Die paarweise Sortierung der väterlichen und mütterlichen Chromosomen weist die Trisomie 21 nach, bei der die Zellen ein zusätzliches Chromosom 21 enthalten. Y Biotechnologie und moderne Medizin dern geht auf die Entwicklung der Polymerasekettenreaktion zurück. Die Methode wird international als PCR bezeichnet. Sie erlaubt es, eine bekannte DNAZielsequenz millionenfach anzureichern. Durch diesen Kunstgriff werden viele Anwendungen der modernen Diagnostik überhaupt erst möglich. Die Polymerasekettenreaktion (polymerase chain reaction, PCR) Wie in der Legende mit den Weizenkörnern wird bei der PCR durch sukzessive Verdoppelungsschritte eine enorme Vervielfältigung von DNA-Fragmenten erreicht. Der beste Beweis dafür, dass geniale Ideen oft verblüffend einfach sind, ist die PCR. Bis zu ihrer Entdeckung bereitete die Präparation von DNA aus geringen Mengen biologischen Materials große Probleme. Heutzutage ist das kein Problem mehr. Bei Entwicklung der PCR sah man wieder einmal der Natur über die Schulter: Man nimmt eine doppelsträngige AusgangsDNA – ein einziges Molekül reicht theoretisch aus – und erhöht die Temperatur so lange, bis sich die beiden Einzelstränge voneinander trennen. Dann gibt man kurze synthetische DNA-Fragmente hinzu, die zu den Enden auf den Einzelsträngen komplementär sind und beim Abkühlen an diese binden (Hybridisierung). Es bilden sich kurze Doppelstrangabschnitte, die als Startpunkte für eine Auffüllreaktion dienen, bei der ähnlich wie bei der DNA-Replikation in vivo ein Einzelstrang zum Doppelstrang ergänzt wird. Nur dass die Reaktion diesmal im Reagenzglas, also in vitro, abläuft. Die für PCR-Reaktion benötigten Enzyme und Chemikalien sind alle käuflich. Da die kurzen synthetischen DNA-Fragmente als Starter für die Auffüllreaktion fungieren, werden sie als „Primer“ bezeichnet. Nach beendeter Reaktion sind aus den zwei getrennten Einzelsträngen zwei Doppelstränge geworden, die identisch sind. Eine Replikation der DNA in vitro also. Jetzt kann man das Spiel wiederholen und nochmals die Temperatur erhöhen, dann die Einzelstränge nach Abkühlung mit den Primern hybridisieren und zu Doppelsträngen auffüllen, um schließlich vier Doppelstränge zu 40 erhalten. Nach ca. 20 Zyklen hat man eine millionenfache Anreicherung des zwischen den Primern liegenden DNA-Abschnitts erreicht! Besonders leistungsfähig wird die Methode durch den Einsatz von temperaturstabilen Enzymen aus Hitze liebenden Bakterien. Für die beschriebene zellfreie Vermehrung eines DNA-Moleküls wird heute eine Vielzahl von Automaten angeboten. Dank der zahlreichen analytischen Arbeiten haben wir heute bei vielen Krankheiten eine genaue Vorstellung davon, durch welche Veränderungen auf DNA-Ebene sie verursacht werden. In der Regel hat man es mit veränderten, fehlenden oder zusätzlichen Nukleotiden zu tun. Man kann sich nun DNA-Sonden konstruieren, die exakt der betreffenden Sequenz in dem gesunden oder defekten Gen gleichen. Aus der Intensität, mit der diese Sonden an die zu untersuchende DNA binden, lässt sich eine genaue Aussage über das Vorliegen von defekten Sequenzen machen. Die technische Umsetzung dieses Verfahrens durch so genannte DNA-Chips oder Biochips wird in Kapitel 7 der Broschüre unter dem Punkt „Diagnostik“ noch einmal genauer erläutert. 2.12 Ein Fingerabdruck von den Genen Jedes Genom ist einzigartig Neben dem gezielten Aufspüren von Veränderungen in bestimmten Sequenzen ergeben sich aus unserem Wissen um den Aufbau der genetischen Information noch andere Anwendungen. Diese sind vielleicht noch erstaunlicher. Wie oben schon kurz erwähnt, ist das Genom der höher entwickelten Organismen nicht unbedingt voll gepackt mit genetischer Information. Beim Menschen wird sogar ein nur verblüffend geringer Teil des Genoms für die Speicherung genetischer Information genutzt. Die niedrigsten Schätzungen liegen bei nur 3%. Über die Funktion der restlichen DNA ist man sich noch nicht so ganz im Klaren. Allerdings haben die analytischen Untersuchungen dieses Bereichs bereits zur Entdeckung bestimmter Sequenzen geführt, die in Anordnung und Häufigkeit für jedes Individuum charakteristisch sind. Mit den entsprechenden Gensonden lässt sich daher von der menschlichen DNA ein Bild erhalten, das für jede Einzelperson eindeutig und einmalig ist. Da diese Sequenzen nach den üblichen Regeln vererbt werden, lassen sich so auch verwandt- Biotechnologie und moderne Medizin schaftliche Beziehungen klären. Da die Aussagen dieses DNA-Tests ebenso unverwechselbar sind wie ein Fingerabdruck, spricht man international vom DNA-Fingerprinting. Schon aus dem Namen wird klar, dass diese Methode in der Kriminalistik eingesetzt werden kann. Die DNA eines Tatverdächtigen kann mit DNA verglichen werden, die aus Zellen stammt, die am Tatort gefunden wurden. Dank der PCR-Methode genügen hier schon einige wenige Zellen als Ausgangsmaterial. Da die Methode hohe Anforderungen an die Durchführung stellt, war sie seit ihrer Entwicklung Mitte der 80er Jahre in der Kriminalistik immer wieder umstritten. Heute hat sie sich als Bestandteil forensischer Untersuchungen fest etabliert. Das DNA-Fingerprinting ist längst auch unverzichtbar, wenn es darum geht, verwandtschaftliche Beziehungen zu klären. Die Genauigkeit des DNA-Fingerprinting ist dabei weitaus höher als die Genauigkeit der klassischen biochemischen Tests. Bei Vaterschaftsprozessen findet die Methode daher ebenso Anwendung wie bei Immigrationsverfahren, wenn die Klärung verwandtschaftlicher Beziehungen hierfür notwendig ist. Aber nicht nur beim Menschen kann die Methode eingesetzt werden, sondern generell bei allen Organismen. Besonders in der Tierzucht ergeben sich klare Abstammungsnachweise, was die Sicherheit bei Kauf und Kreuzung deutlich erhöht. Auch in Pflanzen können genetische Marker problemlos nachgewiesen werden und Aufschluss über die erfolgreiche Ein- oder Auskreuzung von Eigenschaften geben. Natürlich sind Mikroorganismen gleichfalls auf diese Art charakterisierbar. Es ist sehr genau feststellbar, ob sich bestimmte Mikroorganismen in einer zu untersuchenden Probe befinden. Das kann dort interessant sein, wo schnelle Aussagen über die Art eines Krankheitserregers gefordert sind. Man kann aber auch Informationen über eine Kontamination von Lebensmitteln gewinnen oder einfach nur sicherstellen, dass ein bestimmter Mikroorganismus auch wirklich der ist, für den man ihn hält. Nach Anfärben mit Fluoreszenzfarbstoffen können DNA-Fragmente im UV-Licht sichtbar gemacht und aus einer Gelmatrix isoliert werden. Überführt: Die Einzigartigkeit der Genome führt bei Anwendung geeigneter Analyseverfahren zur Bildung von DNAFragmenten charakteristischer Länge. Hier wird eine Mischung von DNAs, die am Tatort eines Verbrechens isoliert wurde (2), mit der DNA von Opfer (3) und potenziellem Täter (1) verglichen. Die Banden der Mischung können bei Anwendung verschiedener Verfahren (A-D) Opfer und Täter eindeutig zugewiesen werden. 41 Biotechnologie und moderne Landwirtschaft 3. Biotechnologie und moderne Landwirtschaft 3.1 Ein Bakterium als Lehrmeister Moderne Züchtungsverfahren bei Pflanzen Mini-Gewächshaus: Einzelne Zellen können sich auf Nährmedien zu Gewebehaufen (Kalli) und schließlich ganzen Pflanzen regenerieren. Baumwolle gehörte zu den ersten Nutzpflanzen, die gentechnisch verändert wurden und heute, vor allem in den USA, großflächig angebaut werden. Die Übertragung gentechnischer Methoden in den Bereich der Pflanzen erwies sich zunächst als ausgesprochen schwierig. Pflanzenzellen verfügen über eine starke Zellwand, die nicht so ohne weiteres durchbrochen werden kann. Die Züchtung von Pflanzenzellen in Zellkultur ist nicht einfach. Die Herstellung von Pflanzenzellen ohne Zellwand, so genannter Protoplasten, ebenfalls nicht. Und die Regeneration ganzer Pflanzen aus Einzelzellen ist auch nicht trivial. Viele Schwierigkeiten also und zunächst nur eine Lösung: Agrobakterium tumefaciens. Dieses Bakterium kann man mit Fug und Recht als einen Gentechniker der Natur bezeichnen. Es hat nämlich einen ausgeklügelten Mechanismus entwickelt, um seine Plasmid-DNA auf bestimmte Pflanzen zu übertragen. Diese DNA wird von den Pflanzenzellen in ihr Genom eingebaut und führt dazu, dass die Pflanzenzellen tumorartig wachsen und eine besondere Aminosäure bilden, von der das Bakterium A. tumefaciens wiederum sehr gut leben kann. Der Stoffwechsel der transformierten Pflanzenzellen 42 wird also umdirigiert, ähnlich wie bei einer viralen Infektion, und dient dann den Bedürfnissen des Bakteriums. Nachdem dieser Mechanismus aufgeklärt worden war, fand man in ihm auch den Schlüssel zur Pflanzengentechnik. Man kann große Bereiche der bakteriellen Plasmid-DNA durch fremde DNA ersetzen, ohne dass die Effizienz des Plasmid-Transfers auf die Pflanze leidet. Nun hat das Bakterium nichts mehr von dem DNA-Transfer, dafür aber der Mensch. Denn nun stellen die Pflanzen zwar die für das Bakterium wichtige Aminosäure nicht mehr her, können dafür aber andere Dinge produzieren. An der Aufklärung dieser Mechanismen waren deutsche Wissenschaftler und Institutionen, nicht zuletzt das Max-Planck-Institut in Köln, führend beteiligt. Zu Beginn der 80er Jahre nahm die Gentechnik der Pflanzen dann ihren eigentlichen Aufschwung. Neue Methoden der Pflanzenzellkultur, der Regeneration und des Gentransfers erweiterten die Möglichkeiten der Forscher zunehmend. Immer mehr Arten wurden der Anwendung gentechnischer Methoden zugänglich. Mehr und mehr Arbeitsgruppen und auch Firmen wandten sich der Bearbeitung von Pflanzen zu. Heute können alle wichtigen Kulturpflanzen gentechnisch bearbeitet werden. 3.2 Noch manche Nuss zu knacken Moderne Pflanzenzucht und neue Lebensmittel Die Eigenschaften, die man in Pflanzen einbringen möchte, lassen sich ganz grob in zwei Kategorien einteilen. Zum einen sind es Eigenschaften, die den Umgang mit den Pflanzen Biotechnologie und moderne Landwirtschaft erleichtern sollen und daher in erster Linie für den Züchter und Bauern von Interesse sind. Zum anderen sind es die Produkteigenschaften selbst, die dann auch vom Verbraucher unmittelbar wahrgenommen werden. Ein Beispiel soll das verdeutlichen. Mit der FlavrSavr-Tomate ist 1994 erstmals eine gentechnisch veränderte Pflanze für den menschlichen Verzehr zugelassen worden. Es handelte sich dabei um eine Tomate, bei der auf elegante Art und Weise eine unerwünschte Enzymaktivität lahm gelegt worden war. Details dazu finden sich im Produktteil der Broschüre, wenngleich die FlavrSavr-Tomate heute nicht mehr am Markt ist. Die FlavrSavr war länger haltbar und konnte daher in ausgereifter Form gepflückt und zu den Märkten transportiert werden. In diesem Fall kam der Kunde direkt mit dem gentechnisch veränderten Organismus in Berührung. In einem anderen Fall wurden Tomaten angebaut, die ähnlich wie die FlavrSavr-Variante länger haltbar gemacht worden waren. Diese Tomaten dienen aber ausschließlich der Herstellung von Tomatenpüree. Als prozessiertes Lebensmittel enthält das Püree keine lebenden Zellen mehr. Diese werden während des Herstellungsprozesses aufgebrochen. Auch die DNA mitsamt den fremden Abschnitten wird zu kleinen Fragmenten abgebaut. Die verbesserte Haltbarkeit der Tomaten ist deshalb primär für die Bauern von Vorteil, die ein größeres Zeitfenster bei der Ernte haben. Die Kunden kommen mit dem intakten gentechnisch veränderten Organismus selbst, der Tomate, nicht mehr in Berührung. Die Tomate war nur Ausgangsmaterial für die Herstellung des Pürees. Ähnlich liegen die Dinge auch bei zahlreichen anderen Anwendungen, wo gentechnisch veränderte Pflanzen zwar Ausgangspunkt einer industriellen Verarbeitung sind, die Endprodukte aber von dieser gentechnischen Veränderung nicht mehr berührt werden. Die wichtigsten kommerziellen Entwicklungen haben sich auf diesen Bereich konzentriert. Es geht dabei um Pflanzen, die gegen Herbizide, also Unkrautvernichtungsmittel, gegen Insekten oder Krankheiten geschützt sind. Vielfach dienen diese Pflanzen zwar als Ausgangsprodukte für Lebensmittel, doch enthalten diese dann weder ganze Zellen noch intakte DNA. Manchmal, wie im Falle gentechnisch veränderter Baumwolle, haben die Pflanzen auch einen ganz anderen Verwendungszweck. Solche Varietäten sollen vorwiegend für die Bauern Vorteile bringen, weil sie verbesserte Produkte im Pflanzenschutz einsetzen und Das Wachstum der Pflanzen wird im Labor kritisch überprüft. höhere Erträge erzielen können. Diese Vorteile sind von den Firmen, die gentechnisch veränderte Pflanzen herstellen, immer wieder als Argument angeführt worden. Der höhere Preis des gentechnisch veränderten Saatguts sollte für die Bauern durch höhere Erträge, geringeren Aufwand für Pflanzenschutzmittel und durch Einsparung bei Arbeitszeit und Arbeitsmitteln aufgewogen werden. Wenn auch in ihrer Höhe umstritten, hat eine vom amerikanischen Landwirtschaftsministerium in Auftrag gegebene Studie diese Vorteile prinzipiell belegen können. Die zusammen mit gentechnisch veränderten Pflanzen einsetzbaren Herbizide gelten als umweltverträglicher als viele andere, da sie rascher abgebaut werden und die Mengen geringer sind, die man für eine Bekämpfung des Unkrauts benötigt. Als so genannte Nachauflaufherbizide können sie nach Bedarf verwendet und müssen nicht – wie bei Vorauflaufherbiziden erforderlich – schon prophylaktisch ausgebracht werden. Sie sind aber völlig unselektiv, d.h., sie greifen alle Pflanzen an, ohne zwischen Unkraut und Nutzpflanze zu unterscheiden. Mit gentechnischen Methoden hat man die Nutzpflanzen daher gegen diese Herbizide resistent gemacht. Nur die gentechnisch veränderten Nutzpflanzen überstehen einen Einsatz der so genannten Totalherbizide, 43 Biotechnologie und moderne Landwirtschaft Einzelne Pflanzenzellen unter dem Mikroskop. Anbau und Verwendung gentechnisch veränderter Nahrungspflanzen wie Mais wird intensiv diskutiert. während alle anderen Pflanzen absterben. Wie bei sämtlichen derartigen Entwicklungen bleibt das inhärente Problem, dass unter dem Selektionsdruck des Herbizids auch resistente Unkräuter entstehen können. Ob dies durch Erwerb des Resistenzgens – durch unerwünschte Kreuzung mit der Nutzpflanze – geschieht oder durch andere Mechanismen, ist dabei unerheblich. Bei der Züchtung von Pflanzen, die gegen Insekten geschützt sind, versucht man Abwehrmechanismen auszunutzen, die von der Natur bereits entwickelt wurden. Statt durch klassische Pflanzenschutzmittel sollen die Pflanzen durch die interne Produktion von Abwehrstoffen geschützt werden. Dieser Weg wurde bei der Verwendung eines bakteriellen Proteins beschritten, das eine insektizide Wirkung gegen bestimmte Insektenlarven entwickelt. Die Wirkung dieses Proteins aus Bacillus thuringiensis war schon vor längerer Zeit erkannt worden. Man züchtete daher die Bakterien selbst als Insektizide und versprühte sie auf den Feldern. Mittels gentechnischer Methoden konnte das Gen dann aus B. thuringiensis isoliert und auf Nutzpflanzen übertragen werden. Diese produzieren damit ihren eigenen insektiziden Wirkstoff. Trotz einiger Jahre Erfahrung mit einem großflächigen Anbau dieser Pflanzen bleibt es wichtig, ihre Anpassung an die Umwelt und ihre Interaktion mit der Umwelt zu beobachten. In Laborexperimenten sind Resultate erzielt worden, die für einen großflächigen Anbau bestimmter Pflanzen bedenklich stimmen. Allerdings haben die Untersuchungen der bislang durchgeführten Feldversuche derartige Bedenken 44 nicht bestätigt. In der Europäischen Union ist mit der so genannten Freisetzungsrichtline (90/220 EWG) ein Rechtsrahmen geschaffen worden, der die Freisetzung und das Inverkehrbringen gentechnisch veränderter Organismen regelt. Allerdings haben Dänemark, Frankreich, Griechenland und Großbritannien Mitte 1999 de facto Moratorien verfügt, so dass dort vorläufig keine gentechnisch veränderten Pflanzen für die kommerzielle Nutzung angebaut werden dürfen. Es gibt mittlerweile eine Vielzahl von biotechnischen Ansätzen um verbesserte Pflanzensorten zu erzeugen. Pflanzen verfügen beispielsweise nicht über ein Immunsystem wie der Mensch, doch wird eine Pflanzenzelle, die von einem Virus infiziert wurde, kein zweites Mal von einem Virus befallen. Das weiß man schon seit einiger Zeit. Es konnte nun gezeigt werden, dass eine solche „Immunität“ durch das Vorhandensein bestimmter viraler Proteine ausgelöst wird. Normalerweise finden sich diese Proteine nur dann in der Pflanzenzelle, wenn sie von einem Virus befallen wurde. Man kann nun aber das Gen für solch ein virales Protein in das pflanzliche Genom integrieren und der Zelle damit eine virale Infektion vorgaukeln, die gar nicht stattgefunden hat. Die geringe Menge an viralem Protein stört die Pflanze nicht. Als Ergebnis findet ein zweites Virus, das die Pflanzenzelle gerne befallen möchte, die Tür sozusagen verschlossen. Die Pflanzenzelle ist gegen das Virus resistent. Mittels dieses Verfahrens möchte man beispielsweise die Rhizomania bekämpfen, die gefürchtete Wurzelbärtigkeit bei Zuckerrüben. Andere Ansätze zielen auf eine Veränderung von Kulturpflanzen dergestalt, dass die Konzentration der Inhaltsstoffe, die für den Menschen wichtig sind, erhöht ist. Das können z.B. wichtige Aminosäuren sein oder Vitamine. Auf diesem Weg könnte man Mangel- Biotechnologie und moderne Landwirtschaft krankheiten, die einer einseitigen Ernährung angelastet werden können, vorbeugen. Sehr wichtig ist das mit Blick auf Reis, der mit Vitamin A angereichert werden soll. Dort wo der Reis Nahrungsgrundlage ist, werden viele Tausend Fälle von Blindheit auf einen Mangel an Vitamin A zurückgeführt. Die Entwicklung solcher Pflanzen könnte zu Lebensmitteln führen, für die der Begriff Nutraceuticals geprägt wurde. Damit soll ausgedrückt werden, dass sie neben der eigentlichen Nahrungsmitteleigenschaft auch eine medizinisch relevante Eigenschaft besitzen. Die neuen Lebensmittel, die international als Novel Food bezeichnet werden, erfordern unter Sicherheitsaspekten eine genaue Prüfung. Im Falle der FlavrSavr-Tomate, in der lediglich ein Gen ausgeschaltet wurde und damit ein Protein fehlt, sind schädliche Wirkungen für den Menschen sicher nicht zu befürchten. Es wird aber aus gutem Grund immer wieder darauf hingewiesen, dass besonders das allergene Potenzial der neuen Lebensmittel kritisch geprüft werden muss. Beispielsweise wurde, um die Qualität der Sojabohne als Lebensmittel zu verbessern, das Gen für ein besonders methioninreiches Protein aus der Paranuss in Sojabohnen einkloniert (Methionin gehört zu den so genannten essenziellen Aminosäuren und kann vom menschlichen Körper nicht selbst synthetisiert, sondern muss mit der Nahrung aufgenommen werden). Paranüsse sind als allergen bekannt und können zu schweren allergischen Reaktionen führen. Es stellte sich im Fall des in Sojabohnen einklonierten Gens heraus, dass durch das Protein – das 2-S-Albumin der Paranuss – tatsächlich auch ein allergenes Potenzial auf die Sojabohne übertragen worden war. Die entsprechenden Tests wurden routinemäßig durchgeführt. Eine Markteinführung dieser transgenen Sojabohne kam daraufhin natürlich nicht mehr in Frage. Während Gentechnik-Gegner dieses Beispiel gerne benutzen, um die Gefahren der Gentechnik zu beschwören, belegt es letztlich nur, dass auftretende Probleme rechtzeitig erkannt werden und beherrschbar sind. Neben den Pflanzen, die Grundlage der menschlichen Ernährung sind, werden viele Arten auch hinsichtlich einer technischen Verwertung angebaut. Die Baumwolle als Beispiel wurde bereits genannt. Auch in diesem Sektor werden viele Experimente durchgeführt, die eine Verbesserung der Pflanzen mit Blick auf ihre Verwertbarkeit zum Ziel haben. So kann, um gleich bei der Baumwolle zu bleiben, die Blaufärbung der Baumwollfaser direkt an der Pflanze erreicht werden – durch Einklonieren entsprechender Gene. Man könnte dann idealerweise den chemischen Prozess des Einfärbens vermeiden. Das könnte auch unter Umweltaspekten Vorteile haben. Oder man kann, mit Blick auf die Qualität von Pflanzenölen, die Zusammensetzung des Fettsäuremusters gezielt verändern. Das kann sowohl für technische Anwendungen als auch für die Lebensmittelindustrie interessant sein. 3.3 Made by... Die Kennzeichnung neuer Lebensmittel Die Diskussion um moderne Verfahren in der Landwirtschaft wurde nicht zuletzt von der Frage einer Kennzeichnung neuer Produkte, besonders neuer Lebens- mittel, beherrscht. Hier wurde lange Zeit unterschätzt, dass neben einer selbstverständlich zu fordernden Unbedenklichkeit dieser Produkte auch die Wahlmöglichkeit für den Verbraucher von entscheidender Bedeutung ist. Der Kunde soll sich für das aus seiner Sicht bessere Produkt entscheiden können. Um eine solche Entscheidung zu ermöglichen, müssen die unterschiedlichen Produkte für ihn natürlich klar erkennbar sein. Nicht zuletzt wegen der logistischen Schwierigkeiten, die sich aus der Forderung nach einer klaren Kennzeichnung ergeben, wurde diese seitens der Indu- 45 Gentechnik oder nicht? Der Verbraucher möchte Klarheit. Biotechnologie und moderne Landwirtschaft strie lange Zeit gescheut. Auch hatten die Erfahrungen in den USA nicht unbedingt erwarten lassen, dass diese Forderung in Europa derart nachdrücklich erhoben würde. Die Art der Kennzeichnung, die Trennung gentechnisch veränderter von unveränderten Produkten, die Quantität erlaubter Restmengen und viele Punkte mehr wurden Ende der 90er Jahre zum Politikum. Die Positionen der USA und weiterer Nationen, die gentechnisch veränderte Pflanzen anbauten, standen denen vieler Abnehmerländer lange Zeit recht unversöhnlich gegenüber. Umso erfreulicher, dass Anfang 2000 dann doch eine Einigung erzielt werden konnte. Das in Montreal beschlossene Rahmenabkommen sieht vor, dass zukünftig alle Lieferungen zu kennzeichnen sind, die möglicherweise gentechnisch veränderte Rohstoffe enthalten. In der öffentlichen Darstellung entsteht oft der Eindruck, von gentechnisch veränderten Lebensmitteln gehe per se ein erhöhtes Risiko aus. Dabei erstreckt sich diese Befürchtung sogar auf Lebensmittel, die selbst gar nicht verändert sind, sondern nur Stoffe enthalten oder mit ihnen in Berührung gekommen sind, die gentechnisch hergestellt wurden. So wird bei der Herstellung von Hartkäse Labferment eingesetzt. Dieses Enzym, international Chymosin genannt, wird in vielen anderen Ländern längst gentechnisch produziert und eingesetzt. Es unterscheidet sich von dem aus Kälbermägen isolierten Enzym nur dadurch, dass es gentechnisch in viel höherer Reinheit gewonnen werden kann. Man schätzt, dass in den USA bereits 60% des Hartkäses mit diesem Chymosin hergestellt werden. Es fragt sich nun, ob man den Hartkäse, der das gentechnisch hergestellte Enzym enthält, nun selbst als gentechnisch verändert bezeichnen sollte. Ein erhöhtes Risiko für den Verbraucher zumindest ist nicht erkennbar. Bei der Herstellung von Zucker aus Stärke wird ein Enzym verwendet, das heute weltweit nur noch unter Verwendung rekombinanter Mikroorganismen hergestellt wird. Dieses Herstellungsverfahren bietet gegenüber dem klassischen sowohl ökonomische als auch ökologische Vorteile. Das Enzym mit dem Namen a-Amylase ist mit dem klassisch gewonnenen völlig identisch und im Endprodukt Zucker nicht enthalten. Auch hier scheint mehr als fraglich, ob man den Zucker oder womöglich auch die mit ihm gesüßten Waren nun als gentechnisch verändert bezeichnen sollte. Sinnvoll ist es aber in jedem Fall, breit darüber zu informieren, wo und bei welchen Verfahrensschritten Gentechnik eingesetzt wird. Vorbehalte gegenüber der Gentechnik lassen sich am besten durch Information beseitigen. Diese für den Lebensmittelbereich entwickelten Überlegungen lassen sich auch auf andere Gebiete ausdehnen. Beispielsweise sind in unseren modernen Waschmitteln Enzyme enthalten, die eine wichtige Rolle bei der Entfernung von eiweißhaltigen Flecken oder auch Fettflecken spielen. Diese Enzyme werden teilweise bereits mit Hilfe gentechnisch veränderter Stämme hergestellt – mit erheblichen Vorteilen für die Umwelt. Darauf wird in Kapitel 7 noch eingegangen. Was spricht eigentlich dagegen, den Kunden über die Vorteile zu informieren, die sich aus der gentechnischen Herstellung der verwendeten Enzyme ergeben haben? Information und Kennzeichnung sind ja nicht ein und dasselbe. Madein Germany Eine Kennzeichnung kann sich zum Qualitätsmerkmal entwickeln. 46 Biotechnologie und moderne Landwirtschaft 3.4 Vom Farmer zum Pharmer Biotechnologie und moderne Tierzucht Bei der Züchtung gentechnisch veränderter Tiere ist die Methode des DNA-Transfers im wahrsten Sinne des Wortes besonders anschaulich. Die fremden Gene werden zunächst in geeignete Vektoren kloniert und anschließend in eine ultrafein ausgezogene Glaskanüle gefüllt. Eine Zielzelle wird unter dem Mikroskop durch Ansaugen an eine zweite, größere, Glaskanüle fixiert. Bei der Zielzelle handelt es sich um eine in vitro befruchtete Eizelle, in der männlicher und weiblicher Zellkern noch getrennt als so genannte Vorkerne erkennbar sind. Dann wird mit der feinen Glaskanüle in die Zielzelle hinein gestochen und zwar so, dass die DNA in einen der beiden Vorkerne eingespritzt werden kann. Danach laufen die normalen zellulären Vorgänge ab. Die beiden Vorkerne verschmelzen miteinander und die fremde DNA wird mitsamt den Vektorsequenzen in das Genom der Zelle integriert. Diese Vorgänge können nur bei Mäusen einigermaßen gesteuert werden. Im großen und ganzen laufen sie zufällig ab. Daher wird die fremde DNA oft an verschiedenen Orten und in mehreren Kopien in das jeweilige Wirtsgenom integriert. Der sich entwickelnde Embryo wird sodann in ein Ammentier eingepflanzt und von diesem normal ausgetragen. Die fremde DNA befindet sich, ausgehend von der befruchteten Eizelle, dann auch in jeder Körperzelle des transgenen Tieres. Damit ist die neue Eigenschaft Teil seiner Keimzellen und auf die Nachkommen vererbbar. Auf technische Einzelheiten, die recht kompliziert sein können, soll hier nicht weiter eingegangen werden. Die Züchtung gentechnisch veränderter, transgener Tiere wurde experimentell zunächst an Mäusen untersucht. Sämtliche Versuche unterliegen dabei den Bestimmungen des Tierschutzgesetzes. Die entwickelten Methoden sind allerdings universell anwendbar – theoretisch auch beim Menschen. Das führt immer wieder zu Diskussionen. Derartige „Keimbahnexperimente“ am Menschen sind bei uns aber durch das Embryonenschutzgesetz untersagt. Neben Experimenten an der Maus als dem klassischen Versuchstier nutzt man die Methoden der Gentechnik nun auch intensiv, um wichtige Zuchtziele bei Schaf, Rind oder Schwein zu erreichen. Beim Schaf geht es zum Beispiel darum, die Qualität der Wolle durch eine verbesserte Verfügbarkeit der Ami- nosäure Cystein zu steigern. Beim Rind soll u.a. die Qualität der Milch durch ein zusätzliches Protein, das Lactoferrin, verbessert werden. Bei Schweinen wird untersucht, ob sich Tiere züchten lassen, die als Organspender für den Menschen in Frage kommen. Hierzu wurden die Oberflächen der tierischen Zellen so verändert, dass sie vom menschlichen Immunsystem nicht mehr als fremd erkannt werden können. Die genannten Beispiele sollen nur in aller Kürze einen Eindruck davon vermitteln, welches Spektrum an Anwendungen in diesem Bereich schon erforscht wird. Auf die Bedeutung von transgenen Mäusen und anderen gentechnisch veränderten Tieren in der Grundlagenforschung wurde in Kapitel 2.6 bereits hingewiesen. Auf eine Anwendung in der modernen Tierzucht soll zum Abschluss dieses Kapitels noch detaillierter eingegangen werden. Wie im Falle des Lactoferrins schon angedeutet wurde, kann man durch die Auswahl Gentechnisch veränderte Schafe dienen heute bereits zur Herstellung von Medikamenten. Die erste gentechnische Veränderung an Tieren gelang 1982 bei Mäusen. Biotechnologie und moderne Landwirtschaft rund 4.000 Tieren begonnen wird, aus deren Milch man das Medikament a-1-Antitrypsin gewinnen möchte. 3.5 Vom Klonen und Klonieren Potent sein allein reicht nicht Unter dem Mikroskop wird DNA in eine befruchtete Eizelle injiziert. geeigneter Promotoren erreichen, dass fremde DNA nur in den Milchdrüsen weiblicher Tiere exprimiert wird. Das interessierende Protein wird somit in die Milch abgegeben und kann aus dieser gewonnen werden. Da es sich bei diesen Produkten häufig um Therapeutika, also Pharmaprodukte, handelt, hat sich hierfür der Begriff Pharming etabliert – eine Verschmelzung der Worte Pharma und Farming. Das berühmteste Beispiel hierfür ist nach wie vor Tracey, ein Schaf, dessen Milch ein therapeutisch wichtiges humanes Protein enthält. Mit dieser Eigenschaft wurde Tracey von Wissenschaftlern einer schottischen Firma versehen. Diese haben die humane Erbinformation für a-1-Antitrypsin in das Genom von Tracey integriert. Das Protein ist für die Lungenfunktion wichtig und wird heute – noch aus menschlichem Blut gewonnen – bereits therapeutisch eingesetzt. Tracey und ihre Nachkommen produzieren erhebliche Mengen des Proteins in ihrer Milch. Eine Herde von einigen tausend Tieren sollte ausreichen, um den Weltbedarf an diesem noch knappen Protein zu decken. Die Produktion von therapeutischen Proteinen auf diesem Weg könnte allgemein dort interessant sein, wo das Protein spezifische Modifikationen erhält, die nur von Säugerzellen durchgeführt werden können. Einfache Aufreinigungsverfahren vorausgesetzt, ist dieses Herstellungsverfahren ökologisch und ökonomisch hochinteressant. Besonders in Kombination mit dem nachfolgend beschriebenen Klonen ist das Verfahren interessant. Von der oben erwähnten schottischen Firma wurde Ende 1999 bekannt gegeben, dass in Neuseeland mit der Aufzucht einer Schafherde aus 48 Die Tierzucht hat – ganz abgesehen von gentechnischen Methoden – in der jüngeren Vergangenheit erhebliche Fortschritte gemacht. Dazu gehören vor allen Dingen die Möglichkeiten der Fertilisation in vitro und des Embryonentransfers. Dadurch konnte erreicht werden, dass die Eigenschaften von Tieren mit herausragenden Leistungsmerkmalen schnelle Verbreitung finden. Das Kreuzen eines australischen Stiers mit einer schottischen Kuh und das Austragen des Embryos durch ein amerikanisches Ammentier ist heute möglich, ohne dass die Tiere ihre angestammten Weiden verlassen müssen. Nur Erbgut und Embryonen gehen auf die Reise. Dies hat nun allerdings nichts mit Gentechnik im engeren Sinne zu tun. Zu diesem methodischen Repertoire gehört auch die Herstellung identischer Mehrlinge, auf die nun eingegangen werden soll. Identische Mehrlinge werden auch als Klone bezeichnet. Daraus resultiert sehr schnell eine begriffliche Verwirrung mit Methoden der Gentechnik. Der im Jargon der Gentechniker übliche Begriff des Klonierens bezieht sich in aller Regel auf Mikroorganismen. Er umreißt ganz grob die Isolierung eines interessierenden DNA-Fragments durch Transfer dieses Fragments in ein Bakterium, eine Hefe oder einen Pilz. Durch exponentielles Wachstum entsteht, ausgehend von einem einzigen transformierten Mikroorganismus, eine für das Auge sichtbare Anhäufung identischer Mikroorganismen, ein Klon. Ein solcher Klon enthält dann viele Millionen oder Milliarden identische, gentechnisch veränderte Mikroorganismen. Der Begriff des Klons gilt nun aber für genetisch identische Lebewesen ganz allgemein. Er kann für höhere Organismen ebenfalls verwendet werden. In diesen Fällen entstammen die Klone allerdings nicht der Anwendung gentechnischer Methoden, sondern sie entstehen auf andere Art. Bekanntermaßen stellt die befruchtete Eizelle den Ausgangspunkt für die Entwicklung eines Tieres dar. Die Eizelle beginnt sich zu teilen und die Zellen des größer werdenden Embryos beginnen sich nach und nach zu differenzieren, das heißt spezialisierte Funk- Biotechnologie und moderne Landwirtschaft tionen auszuüben. Diese in Raum und Zeit exakt geregelte Differenzierung ist eines der faszinierendsten Rätsel der Entwicklungsbiologie. Die deutsche Biologin Nüsslein-Volhard hat für ihre Beiträge zur Entschlüsselung dieses Rätsels – durch Experimente an der Taufliege Drosophila melanogaster – 1995 den Nobelpreis erhalten. Man weiß nun schon länger, dass die aus der befruchteten Eizelle hervorgehenden Zellen nach den allerersten Teilungen alle noch totipotent sind. Das heißt, sie haben noch die Fähigkeit, einen vollständigen und intakten Organismus zu bilden. In Kapitel 2.9 wurde darauf bereits eingegangen. Man kann die Zellen in diesem Stadium voneinander trennen und durch eine Reihe von technischen Kunstgriffen dafür sorgen, dass sie quasi wieder von vorn, vom Stadium der befruchteten Eizelle aus, mit den Teilungen beginnen. Die Embryonen, die sich nun unabhängig voneinander entwickeln, besitzen das vollkommen identische Erbmaterial, so wie bei eineiigen Zwillingen. Sie werden verschiedenen Muttertieren eingesetzt, und von diesen werden dann Tiere geboren, die genetisch identisch sind. Das Verfahren ist allerdings mit einer recht hohen Ausfallquote belastet. Trotzdem macht man von dieser Möglichkeit in der Tierzucht schon länger Gebrauch. Wissenschaftler haben außerdem einen Weg gefunden, um totipotente Zellen in Zellkultur zur Vermehrung anzuregen. Die Teilungen erfolgen dabei so, dass lediglich immer neue totipotente Zellen entstehen, ohne dass es zur Differenzierung dieser Zellen kommt. Tatsächlich wurden nach Implantation solcher in vitro erhaltenen Zellen zwei identische Schafe Beim Klonen (links) wird die genetische Information zunächst nicht verändert. Bei der Herstellung gentechnisch veränderter Tiere (rechts) wird dagegen fremde DNA in das tierische Genom eingeführt. 49 Biotechnologie und moderne Landwirtschaft Eine wollige Berühmtheit: Das Schaf Dolly wurde als erstes Säugetier mittels Kerntransfer geklont. Der Versuch gelang im Jahr 1997. geboren. Theoretisch unterliegt damit die Zahl der identischen Individuen, die man bekommen kann, keiner Einschränkung mehr. Man kann ja zunächst beliebig viele totipotente Zellen durch Teilung in vitro züchten und dann unterschiedlichen Muttertieren einpflanzen. Aus dem Zwilling wird auf dem Papier so rasch ein Hundertling oder Tausendling. Aber eben nur auf dem Papier. In der Praxis ist das Verfahren noch längst nicht ausgereift. Das Klonen durch Teilung von Embryonen ist in der Tierzucht bereits gang und gäbe geworden. Bei natürlich gezeugten Embryonen bzw. deren Klonen kann man aber prinzipiell nie genau vorhersagen, welche Eigenschaften sie besitzen werden – abgesehen davon, dass die Klone als eineiige Mehrlinge gleiche Eigenschaften haben werden. Zwar kennt man die Eigenschaften der Elterntiere, aber das Ergebnis der Kreuzungen bleibt immer ein Lotteriespiel. Daher bestand schon lange der Wunsch, auch ausgewachsene Tiere mit bekannten und erwünschten Merkmalen exakt „klonen“, sprich „kopieren“ zu können. Trotz zahlloser Versuche in diese Richtung gelang das Klonen erwachsener Säugetiere allerdings nicht und galt daher als unmöglich. Da veröffentlichte Ian Wilmut vom schottischen Roslin Institute im Februar 1997 ein sensationelles Experiment. Er hatte den Zellkern einer Euterzelle aus einem ausgewachsenen Schaf in eine fremde befruchtete Schafeizelle übertragen, deren Kern zuvor ent- 50 fernt worden war. Diese „Eizelle“ implantierte er in den Uterus eines „Ersatzmutterschafs“, das nach der üblichen Tragzeit ein Lamm warf. Das Lamm, das Wilmut angeblich nach der Countrysängerin Dolly Parton „Dolly“ getauft hatte, war eine Sensation. Denn Dollys Erbgut war völlig identisch mit dem Erbgut des Schafs, von dem die Euterzelle stammte. Dolly war also ein Klon, eine exakte genetische Kopie des Tieres. Damit war zum ersten Mal ein ausgewachsenes Säugetier geklont worden! Ganz so einfach, wie hier geschildert, war das Experiment im Übrigen nicht; denn immerhin wurden mehrere Hundert Eizellen benötigt, bis es funktionierte. Die Bedeutung dieses Ergebnisses erwies sich als immens. Schon bald stellte sich heraus, dass sich auch andere Säugetiere, z.B. Mäuse und Rinder, klonen lassen. Damit wurde natürlich auch die Frage nach dem Klonen von Menschen akut. Besonders an dieser Frage entzündeten sich heftige Debatten. In vielen Ländern der EU, auch in Deutschland, entschied man sich bald, das Klonen von Menschen gesetzlich zu verbieten. Offensichtliche medizinische oder ethisch gebotene Gründe für das Klonen von Menschen konnten bis jetzt auch nicht genannt werden. Ob sich das Klonen von Tieren über das Transplantieren von Zellkernen als erfolgreiche Methode etabliert, muss man abwarten. Zum einen scheint der komplexe Prozess des „Reprogrammierens“, wenn das Erbgut der ausdifferenzierten Zelle wieder „freigeschaltet“ wird, um einen ganzen Organismus bilden zu können, sehr störanfällig zu sein. Darin dürfte auch einer der Gründe für die große Zahl von Fehlversuchen pro Klonerfolg liegen. Der andere Grund ist die noch offene Frage, ob die Zahl der möglichen Zellteilungen von geklonten Zellen geringer ist als die von normal gezeugten Zellen. Für Dolly wurde von Forschern des Roslin Institute berichtet, dass die Telomere ihrer Chromosomen gegenüber gleich alten Tieren verkürzt sind. Die Länge der Telomere, die an den Enden der Chromosomen liegen, gilt als Maß für das Alter einer Zelle. Man muss daher abwarten, ob sich bei Dolly und den anderen Säugetierklonen frühzeitige Alterserscheinungen einstellen. Das Klonen von transgenen Säugetieren, die pharmazeutisch wertvolle Substanzen produzieren, ist bereits eine der ersten wichtigen Anwendungen des Klonens geworden. Das im vorangegangenen Kapitel geschilderte „Pharming“ erhielt dadurch einen großen zusätzlichen Schub. Gentechnische Methoden werden Biotechnologie und moderne Landwirtschaft zukünftig in verstärktem Maß mit den anderen Methoden der klassischen und modernen Tierzucht kombiniert werden. Beide Ansätze dienen letztlich dem gleichen Ziel, der Leistungsoptimierung bei Nutztieren. Dennoch erscheint es sinnvoll, aus Gründen der begrifflichen Klarheit beide Methoden voneinander abzugrenzen. Für eine Bewertung von Züchtungsvorhaben kommt es letztlich nicht darauf an, welche Methoden verwendet werden. Wichtiger sind die Zielsetzung des Experiments und die Konsequenzen für das Tier. Solange das Ergebnis der Züchtung dem Menschen nutzt und dem Tier nicht schadet, ist wohl kaum etwas gegen die entsprechenden Experimente einzuwenden. In den Fällen, wo Leiden der Tiere zu erwarten sind – wie in manchen Krankheitsmodellen – muss dieses Leid sehr sorgfältig gegen den Nutzen für den Menschen abgewogen werden. 51 Biotechnologie und vieles mehr... 4. Biotechnologie und vieles mehr... 4.1 Biotechnologie und Umwelt Statt Altlasten entlasten Der Einsatz biotechnischer Verfahren zur Sanierung kontaminierter Böden, Abwässer oder Luft hat eine lange Tradition. Grundsätzlich greift man hier auf die Stoffwechselleistungen von Mikroorganismen zurück, die in einem oft komplizierten Zusammenspiel unterschiedlichster Stämme den schwer abbaubaren Stoffen zu Leibe rücken und diese zerlegen. Im Jargon werden diese Verfahren als „Nachsorgende Umwelttechnik“ oder „end of pipe“-Prozesse bezeichnet. Zum Ein- man über die einzelnen Stämme in diesen Mischkulturen noch immer verhältnismäßig wenig. Es wird aber intensiv daran gearbeitet, Stämme mit speziellen Abbauleistungen für belastende Stoffe zu entwickeln. Hierbei spielen auch gentechnische Ansätze eine wichtige Rolle. Beim Abbau von Ölverschmutzungen an Stränden und auf den Weltmeeren werden Mikroorganismen bereits erfolgreich eingesetzt, selbst bei der schonenden Reinigung von Gebäudefassaden. Dabei handelt es sich aber noch um Stämme, die mit klassischen Methoden optimiert worden sind. Auch höhere Organismen, insbesondere Pflanzen, können für die Dekontamination von Böden eingesetzt werden. Man spricht hier von Phytofermediation und macht sich beispielsweise zunutze, dass manche Pflanzen in der Lage sind, dem Boden Schwermetalle oder andere Stoffe zu entziehen. Es wird sogar schon mit Bäumen experimentiert. Speziell entwickelte Pappeln können beispielsweise das Atrazin, ein weit verbreitetes Herbizid, sehr effizient aus dem Boden anreichern. Naturgemäß braucht die Entwicklung solcher Verfahren viel Zeit und es muss sich zeigen, wo sie erfolgreich eingesetzt werden können. BMBF-Aktivitäten Ein weites Betätigungsfeld: Biotechnische Verfahren können helfen, die Belastung der Umwelt zu verringern. satz kommen in der Regel Mischkulturen, die sich in Abhängigkeit von der jeweiligen Belastung immer wieder neu zusammensetzen. Das funktioniert recht gut, und insbesondere die zur Reinigung eingesetzte Technik wurde in den letzten Jahren stark verbessert. Man denke nur an die Biohochreaktoren zur Abwasserreinigung, an Biofilter oder Biowäscher. Dagegen weiß 52 Im Bereich der Umweltforschung werden seitens des Bundes zahlreiche Aktivitäten unterstützt. Das BMBF hat u.a. das Förderprogramm „Forschung für die Umwelt“ aufgelegt und unterstützt die Umweltforschung auch innerhalb des Programms Biotechnologie 2000. Das Förderprogramm „Forschung für die Umwelt“ wurde im Jahr 1997 begonnen und hält allein für die Projektförderung jährlich rund 400 Millionen DM bereit, die teilweise für Projekte in der Biotechnologie verwendet werden. Aber schon bei der Frage, ob belastende Stoffe überhaupt vorhanden sind, werden routinemäßig biologische und biotechnische Verfahren eingesetzt. Besonders dort, wo klassische Verfahren auf ganzen Organismen beruhen und lange Zeit in Anspruch nehmen, können biotechnische Entwicklungen wie Bio- Biotechnologie und vieles mehr... sensoren oder DNA-Sonden wertvolle Verbesserungen bringen. In vielen Fällen kann erst dadurch eine kontinuierliche Überwachung von Abwässern – dank einer Verkürzung der Reaktionszeit – zu unmittelbaren Gegenmaßnahmen führen. Auch bei der Untersuchung von Ökosystemen und ihrer Reaktion auf verschiedene Umweltreize können insbesondere DNA-Sonden eine wichtige Rolle spielen. Diese sind nicht zuletzt auch für das Monitoring gentechnisch veränderter Pflanzen ausgesprochen wichtig. Der Herstellung von Enzymen wird in Kapitel 7 ein eigener Abschnitt gewidmet. An dieser Stelle sei daher nur kurz erwähnt, dass gerade an so genannten technischen Enzymen – z.B. Proteasen und Lipasen für Waschmittel – großes Interesse besteht. Der Einsatz rekombinanter Stämme führt hier zu teilweise außerordentlich hohen Steigerungen der Ausbeuten und macht viele Herstellungsverfahren damit erst wirtschaftlich. Das bedeutet gleichzeitig eine Schonung der Ressourcen und kommt damit direkt der Umwelt zugute. Es ist keine Seltenheit, dass gentechnisch veränderte Stämme bei der Produktion derselben Enzymmenge mehr als 90% der Ressourcen einsparen, die ein etabliertes Verfahren benötigt hatte. Neue Produktionsverfahren arbeiten also unter teils dramatischer Schonung von Ressourcen und sind erheblich weniger belastend für die Umwelt. Die bei der Herstellung von Enzymen erreichbaren Vorteile lassen sich bei der Produktion anderer Stoffe ebenfalls erzielen. So wird intensiv daran gearbeitet, Mikroorganismenstämme zu entwickeln, die das Biosynthesepotenzial verschiedener Ausgangsstämme in sich vereinen. Im Zusammenhang mit Antibiotika ist das schon einmal angesprochen worden. Aber auch auf anderen Gebieten, wie etwa der Vitaminherstellung, werden neue Verfahren entwickelt. Der Einsatz neuer, gentechnisch veränderter Mikroorganismen kann also bei der Synthese von Verbindungen ganz allgemein interessante Alternativen bieten. Diese Möglichkeiten werden oft mit dem Begriff der „sanften Chemie“ umschrieben. Ein entsprechend veränderter Mikroorganismus baut den gewünschten Stoff einfach aus den vorhandenen Nährstoffen auf. Bequemer und ökologischer geht es kaum. Bisher lassen sich allerdings nur einige ausgewählte chemische Syntheseverfahren sinnvoll durch biotechnische ersetzen. Dennoch dürfte die Biotechnologie gerade beim Einsatz im produktionsintegrierten Umweltschutz eine immer größere Rolle spielen. Unter produktionsintegriertem Umweltschutz versteht man ganz allgemein die Umgestaltung und Neuplanung von Produktionsprozessen dergestalt, dass umweltverträgliche und dadurch Kosten sparende Verfahrensschritte eingebaut werden. Hierfür kommt insbesondere der Einsatz von Enzymen als Biokatalysatoren in Frage. Dabei ist die günstige Verfügbarkeit der Enzyme mittels rekombinanter Verfahren von Bedeutung, aber auch die Tatsache, dass die Eigenschaften der Enzyme heute den technischen Prozessen angepasst werden können. Einzelheiten dazu werden in Kapitel 7 der Broschüre im Teil über Enzyme erläutert. Enzyme haben sich in den letzten Jahren zunehmend einen festen Platz in der Syntheseplanung der Chemiker erobert. Als Beispiel sei hier die Herstellung von Cephalosporin-Antibiotika genannt, bei der zunächst der chemische Grundkörper durch Fermentation eines Pilzes gewonnen und dieser Grundkörper dann chemisch abgewandelt wird. Durch gescheite Überlegung hat man zwei der chemischen Verfahrensschritte durch biokatalytische Prozessschritte ersetzen können. Dadurch werden Ressourcen und Kosten gespart, andererseits die Umwelt geschont. Auch in vielen anderen Bereichen wird an solchen Optimierungen gearbeitet. Man kann deshalb damit rechnen, dass neue Verfahren vermehrt auf solche Syntheseschritte 53 Die Abwasserreinigung ist eine klassische Domäne der Biotechnologie. Durch Einsatz gentechnisch veränderter Mikroorganismen könnten die Anwendungsmöglichkeiten noch erweitert werden. Biotechnologie und vieles mehr... Die Gewinnung zellulärer Bestandteile gehört zu den Grundtechniken in der Biotechnologie. zurückgreifen werden und die Vision der „sanften Chemie“ damit ein Stück näher rückt. 4.2 Klassik und Moderne Bewährte Domänen der Biotechnologie in neuem Glanz Schon seit langer Zeit dienen Mikroorganismen der Herstellung von Aminosäuren. Die vielleicht bekannteste ist Glutaminsäure, deren Salz, das Glutamat, in vielen Lebensmitteln als Geschmacksverstärker enthalten ist. Glutaminsäure wird durch Anzucht von Bakterien in riesigen Fermentern hergestellt. Ein weiteres großes Anwendungsgebiet für Aminosäuren ist die Garantiert vegetarisch: Gentechnisch gewonnenes Chymosin wird in vielen Ländern bei der Herstellung von Käse eingesetzt. 54 Tierernährung. Hier wird durch Zusatz ausgewählter Aminosäuren ein Mangel im Nahrungsangebot für die Tiere ausgeglichen. Aber auch für die intravenöse Ernährung kranker Menschen werden Aminosäuren gebraucht. Alle 20 „natürlichen“ Aminosäuren sind von wirtschaftlichem Interesse, allerdings mit stark unterschiedlichem Gewicht. Die mikrobiellen Produzentenstämme können durch Optimierung der Stoffwechselwege und Regulationsprozesse hinsichtlich ihrer Ausbeuten an Aminosäuren optimiert werden. Erforderlich ist dazu eine genaue Kenntnis der Syntheseschritte und auch der Stoffflüsse. Wenn diese Kenntnisse vorliegen, dann kann durch das so genannte Metabolic Engineering dafür gesorgt werden, dass die vorhandenen Nährstoffe optimal in das gewünschte Produkt, die Aminosäure, umgesetzt werden. Diese Aussage ist nicht allein auf Aminosäuren beschränkt, sondern gilt ganz allgemein für Produkte, die mit Hilfe von Mikroorganismen hergestellt werden können. Das macht diese Verfahren ja auch unter Umweltaspekten so interessant. Selbst den Farbstoff Indigo, mit dem Jeans gefärbt werden, kann man heute mit Hilfe von Bakterien herstellen. Die neuen Verfahren müssen sich häufig mit den bereits etablierten messen und eine bessere Wirtschaftlichkeit erst noch beweisen. In dem Maße, wie ihnen das gelingt, werden sie sich auch durchsetzen. Eine lange Tradition hat der Einsatz von Mikroorganismen bei der Produktion von Lebensmitteln. Die Hefe als unverzichtbarer Helfer bei der Herstellung von vielen Nahrungs- und Genussmitteln wie Brot und Bier ist bestens bekannt. Auch bei der Herstellung von Milchprodukten werden Mikroorganismen in Form so genannter Starterkulturen eingesetzt, die für die Qualität der Endprodukte von großer Bedeutung sind. Neue Entwicklungen können hier dazu beitragen, die Leistungsfähigkeit der Mikroorganismen zu steigern, die in den oben beschriebenen Prozessen verwendet werden. Angestrebt wird u.a. eine bessere Verwertung von Ausgangsstoffen, eine Beschleunigung der technischen Prozesse und eine Biotechnologie und vieles mehr... verbesserte Haltbarkeit der Endprodukte. Inwieweit solche Kulturen und Herstellverfahren Akzeptanz bei den Verbrauchern finden, muss man abwarten. Anfang 2000 scheint deren Haltung abwartend bis ablehnend. Gentechnisch veränderte Kulturen werden in Deutschland daher derzeit nicht eingesetzt. Im Mittelpunkt vieler Produktionsprozesse in der Biotechnologie steht die Fermentation, die Anzucht von Mikroorganismen oder Zellkulturen unter kontrollierten Bedingungen. Die Optimierung dieser Verfahren hat in den letzten Jahren große Fortschritte gemacht. Neue Fermentertypen und Nährmedien sind entwickelt worden, die eine Anzucht von seltenen Mikroorganismen oder besonders empfindlichen Zellkulturen überhaupt erst erlauben. Auch bei der Aufarbeitung der gewachsenen Zellmasse, dem „Downstream Processing“, sind kontinuierliche Verbesserungen erreicht worden. Zu den biotechnischen Produkten, die für einen technischen Einsatz hergestellt werden, gehören unter anderem die im Kapitel 7 ausführlicher vorgestellten Enzyme. Die Palette umfasst außerdem Lösungs-, Schmier- und Gefrierschutzmittel ebenso wie Riech- und Geschmacksstoffe, Säuren und noch viele andere mehr. Selbst bei der so genannten tertiären Erdölförderung werden mikrobielle Produkte eingesetzt. Bei der Gewinnung all dieser Stoffe bieten biotechnische Methoden Ansatzpunkte, um Ausbeuten und Reinheiten zu verbessern. Selbst bei der Erzlaugung greift man auf die Hilfe von Mikroorganismen zurück. Das hat damit zu tun, dass manche Mikroorganismen in der Lage sind, Metalle auch aus geringwertigen Erzen herauszulösen und anzureichern. Dadurch wird eine ökonomisch sinnvolle Aufarbeitung von Gesteinen möglich, die sonst verworfen werden müssten. Mittels gentechnischer Methoden wird versucht, die Mikroorganismen an die von ihnen zu leistende Arbeit noch besser zu adaptieren. Mikroorganismen können Metalle auch ganz einfach nur binden und dadurch aus stark verdünnten wässrigen Lösungen anreichern. Dies kann der Gewinnung dieser Metalle dienen, oder aber zur Reinigung des Wassers. Giftige Schwermetalle können auf diese Art aus belasteten Abwässern entfernt werden. Die Entgiftung von Böden durch den Einsatz von Pflanzen in der Phytoremediation hatten wir in Kapitel 4.1 schon erwähnt. 4.3 Plastik und Computerchips Und immer noch Biotechnologie Sogar bei der Herstellung eines Kunstprodukts par excellence kommen Mikroorganismen in Frage, nämlich bei der Herstellung von Plastik. Sie sind in der Lage, eine ganze Reihe von hochpolymeren Stoffen zu bilden. Diese haben als so genannte Biopolymere den Vorteil, dass sie biologisch abbaubar sind. Das bekannteste Beispiel ist wohl nach wie vor die Polyhydroxybuttersäure (PHB), die bereits auf dem Markt ist und u.a. für die Herstellung von Plastikflaschen verwendet wird. Trotz einer ganzen Reihe von Problemen weist diese Entwicklung in eine interessante Richtung. Es wird bereits daran gearbeitet, PHB in Pflanzen zu produzieren, wodurch die Herstellkosten sinken könnten. Auch der klassische pflanzliche Reservestoff, die Stärke, könnte dank gentechnischer Kniffe als chemischer Rohstoff noch interessanter werden. So sind beispielsweise Kartoffeln erhältlich, die Stärken mit veränderten Eigenschaften produzieren. Dadurch könnten 55 Ein bakterielles Protein, das Bacteriorhodopsin, kann nach gentechnischer Veränderung mit Licht unterschiedlicher Wellenlänge wechselwirken. Diese Eigenschaft will man technisch nutzen. Biotechnologie und vieles mehr... sich neue technische Anwendungsgebiete erschließen. Insgesamt hat das Gebiet der bioabbaubaren Polymere durch die Gentechnik in den letzten Jahren neuen Schwung erhalten. Eine andere verblüffende Anwendung der Gentechnik ist die im Bereich der elektronischen Datenverarbeitung. Ein Protein aus dem Bakterium Halobacterium halobium verfügt über die Eigenschaft, bei Einstrahlung von Licht einer bestimmten Wellenlänge seine Struktur definiert zu ändern. Normalerweise dient diese Fähigkeit der Gewinnung von chemischer Energie und das Protein wechselt unerhört schnell von einer Struktur zur anderen. Durch die Zusammenarbeit von Gentechnikern und Strukturanalytikern gelang es allerdings, Varianten des Proteins herzustellen, die den durch Licht induzierten Zustand lange Zeit beibehalten. Dadurch wird es möglich, durch Einstrahlung von Laserlicht zwischen zwei definierten Zuständen des Proteins hin- und herzuschalten. Dies erinnert nicht nur formal an die berühmten zwei Zustände 0 und 1, die der EDV-Technologie zugrunde liegen. Tatsächlich wird mit dem Protein, das den Namen Bacteriorhodopsin trägt, intensiv experimentiert und die Entwicklung hat auch zur Gründung einer kleinen Firma geführt. Erste Anwendungen im Bereich der Bilderkennung zeichnen sich bereits ab. Vielleicht erwächst dem Silikonchip in Zukunft ja eine ernsthafte biologische Konkurrenz. Visionäre Vorstellungen zielen sogar auf den Einsatz von DNA selbst in der EDV ab. Das Prinzip solcher „DNA-Computer“ besteht darin, dass durch DNAMoleküle eine riesige Zahl verschiedener Informationen repräsentiert werden kann; darunter auch Lösungen für mathematische Probleme, die man in der DNASprache formuliert hat. Zum Beispiel konnte so schon das „Handelsreisenden-Problem“ gelöst werden. Dabei sucht man einen Weg, der eine Zahl von Städten so miteinander verbindet, dass jede Stadt nur einmal besucht wird. So trivial es auf den ersten Blick erscheinen mag, so schwierig ist die rechnerische Lösung. Hochleistungs-Computer können zwar mühsam alle Lösungen sequenziell berechnen, geraten aber schnell an ihre Grenzen, wenn die Zahl der Städte einige Dutzend überschreitet. Hier braucht man parallel arbeitende Lösungsverfahren, die viele Lösungen gleichzeitig erzeugen und bewerten können. Das auf sieben Städte reduzierte Problem konnte von einem „DNAComputer“ bereits gelöst werden. Trotz erster Erfolge bleibt abzuwarten, ob sich mit „DNA-Computern“ 56 mehr als nur ein paar ausgewählte mathematische Probleme lösen lassen. Des Weiteren beschäftigt sich die Computerindustrie schon lange damit, die Fähigkeiten des menschlichen Gehirns auf so genannte neuronale Netze abzubilden. Die Gentechnik ist hier ein wichtiges Instrument, wenn es darum geht, die Leistungen einzelner Nervenzellen und die Grundlagen ihrer Kommunikation untereinander zu studieren. Dies wird zur Konstruktion besonders leistungsfähiger Computer in erheblichem Maße beitragen. Anfang 2000 wurde berichtet, dass es erstmals gelungen sei, Nervenzellen in technische Schaltkreise einzubauen und gezielt anzusprechen. Auch hier muss man natürlich noch abwarten, ob sich Vorteile aus diesen Ansätzen ergeben und ob sie sich kommerziell verwerten lassen. Biotechnologie und Wirtschaft 5. Biotechnologie und Wirtschaft 5.1 Ein Feld für findige Firmen Das Entstehen einer neuen Branche Bereits Mitte der 70er Jahre begann in den USA eine Entwicklung, deren Bedeutung in den folgenden Jahren immer deutlicher wurde: die Ausbildung einer modernen Industrie, die auf den neuen Erkenntnissen aus der Biotechnologie aufbaute. Schon im Jahr 1976, also gerade einmal drei Jahre nach Veröffentlichung des ersten gentechnischen Experiments, gründete der Universitätsprofessor Herbert W. Boyer gemeinsam mit dem Venture Capitalist Robert A. Swanson die Firma Genentech in San Francisco. Viele weitere solcher Unternehmen folgten, vor allem an der West- und Ostküste der USA. Noch heute gelten die Gegenden um San Francisco und Boston als die eigentlichen Hochburgen der modernen Biotechnologie weltweit. Die neuen Methoden und Verfahren wurden auch in den etablierten Pharmafirmen eingesetzt, besonders effizient aber von den kleinen und agilen Biotechnologie-Unternehmen in den USA weiterentwickelt. Man spricht von kleinen und mittleren Unternehmen (KMU) oder im englischen Sprachraum von „Small and Medium Enterprises“ (SME). Die Unternehmenskultur in den USA bot diesen kleinen Firmen schon früh das notwendige Kapital und gestattete eine enge Zusammenarbeit mit den Forschern an Universitäten und Instituten. Zu dieser Zeit, Anfang der 80er Jahre, war in Deutschland die enge Zusammenarbeit zwischen Industrie und Universitäten eher verpönt. Auch verbanden sich mit dem Begriff des Unternehmers mehr negative als positive Assoziationen. Und Venture Capital zur Finanzierung neuer, wirtschaftlich riskanter Unternehmen war kaum verfügbar. Keine guten Voraussetzungen also, um die neue Branche in Deutschland gedeihen zu lassen. Dem überlagerte sich eine emotionale gesellschaftliche Auseinandersetzung um mögliche Gefahren und die sozialen Auswirkungen der modernen Biotechnologie. So waren es in Deutschland vornehmlich die großen Firmen, die sich der neuen Entwicklungen annahmen. In den etablierten Strukturen der chemisch-pharmazeutischen Industrie fiel es der modernen Biotechnologie freilich schwer, sich durchzusetzen. So konnten die kleinen Unternehmen der USA innerhalb weniger Jahre einen technologischen Vorsprung erarbeiten, den sich die USA als führende Nati- : Datenquelle: Ernst & Young 57 Immer mehr Firmen: Die kommerzielle Biotechnologie in Europa hat sich in den letzten Jahren durch hohes Wachstum ausgezeichnet. Biotechnologie und Wirtschaft on in der Biotechnologie bis heute bewahrt haben. Aus einigen der vormals kleinen Unternehmen haben sich zwischenzeitlich Firmen mit vielen Tausend Mitarbeitern entwickelt. Dennoch darf man feststellen, dass der Vorsprung gegenüber Europa und Deutschland geringer geworden ist. Für das Aufholen Europas und insbesondere Deutschlands sind eine Reihe von Faktoren verantwortlich. Mit entscheidend in Deutschland war das neue Streben nach wirtschaftlichem Wachstum – auch in der modernen Biotechnologie. Besonders aber die von den großen politischen Parteien gemeinsam getragene Novellierung des viel zu streng ausgelegten deutschen Gentechnikgesetzes im Jahr 1993 wird vielfach als Startschuss für die positive Entwicklung der Biotechnologiebranche in Deutschland gesehen. Dazu gesellte sich mit dem Start des BioRegio-Wettbewerbs im Jahr 1995 eine Fördermaßnahme des Bundesforschungsministeriums, die sich als außerordentlich erfolgreich erwies. Der Wettbewerb spornte zahlreiche Regionen dazu an, ihre Anstrengungen in der Biotechnologie zu bündeln und die wirtschaftliche Nutzung der Forschungsergebnisse stärker in den Mittelpunkt zu stellen. Als Ergebnis kam es zu einer großen Zahl an Firmenneugründungen und auch zu ersten Börsengängen der arrivierteren deutschen Biotechnologie-Unternehmen. Weitere Fördermaßnahmen des Bundes haben diese Entwicklung flankiert. BMBF-Aktivitäten Zu den Fördermaßnahmen des BMBF gehörte Mitte der 80er Jahre die Initiierung der Genzentren in Berlin, Heidelberg, Köln und München. Die Ansiedlung der Zentren erfolgte dort, wo bereits eine gute Infrastruktur durch Universitäten, Max-Planck-Institute und andere Einrichtungen gegeben war. Dieser Umstand und die Einwerbung von Nachwuchsgruppen auf Zeit haben die Genzentren sehr erfolgreich werden lassen. Es ist kein Zufall, dass in jeder Modellregion des BioRegio-Wettbewerbs auch ein Genzentrum liegt und dass sich die größte Zahl der Biotech-KMU heute um diese Genzentren gruppiert. Sehr positiv für die Entwicklung der kommerziellen Biotechnologie hat sich auch eine Finanzierungsmaßnahme ausgewirkt, die aus Mitteln des BMBF unterstützt wird: Die Kreditanstalt für Wiederaufbau bzw. die Technologie-Beteiligungs-Gesellschaft bietet jun- 58 gen Firmen Kredite zu sehr günstigen Konditionen an. Diese Kredite sind bereits von zahlreichen jungen Biotechnologie-Unternehmen in Anspruch genommen worden. Für das Wachstum der Biotechnologie hält das BMBF noch viele weitere Anreize und flankierende Maßnahmen bereit. Dazu gehörten Anfang 2000 die Fördermaßnahmen BioChance, BioProfile und BioFuture ebenso wie die Unterstützung von ausgesuchten Forschungsschwerpunkten, beispielsweise in der Genomforschung. Maßnahmen zur Information der Öffentlichkeit wie die Förderung des Informationssekretariats Biotechnologie in der DECHEMA e.V. oder die Förderung des Science live-Mobils, eines mobilen und vor allem für Schulen zugänglichen Labors, runden das Angebot ab. Insgesamt werden von der Bundesregierung jährlich rund 1,5 Milliarden Mark für den Bereich der Life Sciences ausgegeben. Davon trägt das BMBF den Hauptanteil. Im Vergleich zu den USA ist die Bilanz allerdings immer noch ernüchternd. Den dort Anfang 2000 an der Börse notierten mehr als 300 Biotechnologie-Unternehmen standen in Deutschland noch nicht einmal 10 solcher Firmen gegenüber. Auch mit Blick auf die Größe der Firmen hinsichtlich Mitarbeiterzahl und Umsatz ist der Abstand zu den USA noch erheblich. Doch scheint die Branche nun auf dem richtigen Weg zu sein. Zahlreiche Forschungsabkommen mit nationalen und internationalen Großunternehmen bestehen bereits und deutsche Firmen erweisen sich als gleichwertige Partner im internationalen Wettbewerb. Aus den vereinzelten Firmen der 80er Jahre beginnt sich eine selbstbewusste und dynamische Branche zu entwickeln. Für Hochschulabsolventen erweisen sich die Biotechnologie-Unternehmen als ebenso attraktiv wie für erfahrene Manager aus großen Unternehmen. Allerdings zeigt sich, das Angebot und Nachfrage nicht immer zusammenpassen. Es wird in den nächsten Jahren daher besonders wichtig sein, die Ausbildung an den Hochschulen den neuen Anforderungsprofilen anzupassen und auch kurzfristige Lösungsansätze zu erproben. Das wird ein hohes Maß an Flexibiliät bei allen Beteiligten erfordern. Aber man wird den Herausforderungen durch die sich rasch verschiebenden Schwerpunkte in der Biotechnologie nur durch diese Flexibilität begegnen können. Eine besonders enge Verbindung ist die Biotechnologie mit der Pharmaindustrie eingegangen. Das hat Biotechnologie und Wirtschaft unter anderem dazu geführt, dass viele der großen Konzerne die eigene Forschung zugunsten einer Zusammenarbeit mit den stark forschungsorientierten Biotechnologie-Unternehmen zurückgefahren haben. Diese finanzieren ihr Wachstum also häufig über Kooperationen mit Pharmafirmen. Selten sind dagegen die Fälle geblieben, in denen BiotechnologieUnternehmen die eigenen Produkte bis zur Marktreife entwickelt und anschließend auch selbst in den Markt eingeführt haben. Die große Zahl neuer Produkte und die neuen Heilverfahren, die von den BiotechnologieUnternehmen erforscht und entwickelt werden, könnte mittelfristig aber eine Neuaufteilung bestehender Marktsegmente und eine Neuorientierung in der Pharmabranche bewirken. Bereits klar zu erkennen ist ein Trend weg von der „vollintegrierten“ Pharmafirma, die von der Ideenfindung bis zur Einführung eines neuen Produktes alles selber macht, hin zu einem Zusammenspiel hoch spezialisierter Firmen, die nur noch in bestimmten Teilbereichen ihre Expertise besitzen. Wenngleich viel heftiger diskutiert, erscheinen die Auswirkungen der Biotechnologie im landwirtschaftlichen Bereich vorerst geringer. Die Verwendung gentechnisch veränderter Pflanzen ändert an den prinzipiellen landwirtschaftlichen Verfahren zunächst einmal nichts. Doch erwarten viele Experten, dass die möglichen Anwendungen der Biotechnologie im Agrosektor eine größere kommerzielle Bedeutung gewinnen könnten als im Pharmabereich. Hier gilt es daher, Möglichkeiten für die Entwicklung innovativer Produkte frühzeitig zu erkennen und diese entsprechend zu entwickeln. Dass dies nur mit dem Verbraucher und nicht gegen den Markt gelingen kann, ist selbstverständlich. Über die Auswirkungen der Biotechnologie auf den Arbeitsmarkt ist bereits viel diskutiert worden. Hier gibt es, ausgehend von unterschiedlichen Definitionen und Szenarien, weit auseinander liegende Einschätzungen. Folgt man den Zahlen der Unternehmensberatung Ernst&Young, deren jährliche Reports die Biotechnologie in den USA und Europa seit Jahren begleiten, dann ergibt sich für die USA eine Beschäftigtenzahl von über 150.000 zu Beginn des Jahres 2000. Europa liegt mit rund 54.000 Beschäftigten deutlich zurück, hat aber in den Zuwachsraten mit den USA gleichgezogen. Angesichts dieser Zahlen lässt sich eine Bedeutung der Biotechnologie für den Arbeitsmarkt kaum leugnen, auch nicht angesichts offensichtlicher Substitutionseffekte im Pharmabereich. Es ist klar, dass bei der oben beschriebenen engen Interaktion zwischen Biotechnologie und Pharma auch Arbeitsschwerpunkte und damit Arbeitsplätze verlagert werden. Mit dem Jahr 2000 ist, so wird von vielen Seiten bestätigt, das Jahrhundert der Biowissenschaften eingeläutet worden. Bereits eingangs der Broschüre haben wir darauf hingewiesen, dass solch scheinbar eindeutige Aussagen durch die stärkere Durchlässigkeit zwischen den Disziplinen an Bedeutung verloren haben. Dort, wo aus der Begegnung unterschiedlichen Wissens neue Ideen geboren werden, werden auch die wichtigsten Innovationen entstehen. Unstrittig ist aber, dass in den letzten Jahrzehnten wesentliche Impulse für Fortschritte in der Wissenschaft und für unser Verständnis vom Leben aus der Biologie gekommen sind. Das wird auch in absehbarer Zukunft noch so Besonders in Deutschland gab es in den letzten Jahren einen Gründungsboom in der Biotechnologie. Datenquelle: Informationssekretariat Biotechnologie 59 Biotechnologie und Wirtschaft bleiben. Wir sehen uns dadurch in die Lage versetzt, vom Leben zu lernen und die gewonnen Erkenntnisse in Produkte und Verfahren umzusetzen, die dem Wohl unserer Gesellschaft dienen. Diese Möglichkeit sollten wir mit Nachdenklichkeit, aber auch vorausschauend und mit Tatkraft nutzen. 5.2 Die Claims werden abgesteckt Patente auf biotechnische Erfindungen In der manchmal hitzigen Diskussion um die Anwendungen der Biotechnologie und insbesondere der Gentechnik spielt auch die Erteilung von Patenten immer wieder eine Rolle. Als etabliertes Instrument des wirtschaftlichen Handels von der Öffentlichkeit jahrzehntelang zunächst völlig unbeachtet, gewann das Patentieren im Zusammenhang mit der Biotechnologie eine unerwartete Publizität. Was ist der Grund? Eine Antwort mag die Schlagzeile „Keine Patente auf Leben“ sein, die immer wieder auftaucht und auf Das Europäische Patentamt in München befindet auch über Patentanmeldungen aus der Biotechnologie. 60 Transparenten hochgehalten wird. Hierin drückt sich wohl die Angst aus, Leben könne durch neue wissenschaftliche Erkenntnisse nicht nur immer besser verstanden und beherrschbar werden, sondern womöglich zum Besitz einiger weniger Menschen verkommen. Doch derartige Ängste gehen an der Realität vorbei. Für die Erteilung von Patenten sind nationale oder supranationale Ämter zuständig, die den Patentinhalt nach formalen Kriterien prüfen. Dabei geht es im Wesentlichen um Neuheit, um Reproduzierbarkeit und um technische Anwendbarkeit. Sind diese Kriterien erfüllt, kann ein Patent erteilt werden. Das erteilte Patent stellt nun aber keinesfalls eine Ausübungsgenehmigung dar. Es bestätigt dem Patentinhaber lediglich, dass er bei einer eventuellen Ausübung des Patents nicht andere Patente verletzt, und gibt ihm das Recht, Wettbewerbern die Nutzung seines eigenen Patents zu verbieten. Will er das Patent tatsächlich kommerziell verwerten, muss er dann aber selbstverständlich die geltende Rechtslage berücksichtigen. Ein erteiltes Patent hat ja keinen Gesetzeswert. So ist Anfang 2000 vom Europäischen Patentamt ein Patent zur Herstellung von gentechnisch veränderten humanen Stammzellen erteilt worden, das für viel Aufregung gesorgt hat. Diese Erteilung hat schon formal gegen geltende Patentrichtlinien verstoßen. Die Ausübung eines solchen Patents ist durch die Bestimmungen des Embryonenschutzgesetzes in Deutschland untersagt. Am 10.03.2000 hat die Bundesministerin der Justiz, Frau Prof. Dr. Herta Däubler-Gmelin, folgerichtig gegen diese Patent (EP0695361) Einspruch erhoben. Schließlich legt der Gesetzgeber fest, was zulässig ist, und nicht das Patentamt. Patente sollen ein Anreiz für Erfinder sein, ihre neuen Erkenntnisse der Öffentlichkeit mitzuteilen. Biotechnologie und Wirtschaft Der Erfinder erhält dafür das Recht, den Erfindungsgegenstand eine bestimmte Zeit lang exklusiv wirtschaftlich nutzen zu dürfen. Ist diese Frist – in Europa beträgt sie 20 Jahre vom Zeitpunkt der Patenteinreichung an – vorüber, wird die Erfindung frei zugänglich und kann von jedem genutzt werden. Der Erfinder hat durch den Patentschutz einen wirtschaftlichen Vorteil, weil er gegenüber der Konkurrenz – idealerweise – einen technischen Vorsprung gewinnt. Die Gesellschaft profitiert, weil die Erfindung in den allgemeinen Wissensschatz eingeht und nicht womöglich mit dem Erfinder stirbt. Die Patentierung einer Erfindung muss für den Erfinder oder eine Firma nicht immer ein Vorteil sein. Bestes Beispiel ist das Rezept für Coca-Cola. Wäre das Rezept schon vor vielen Jahrzehnten patentiert worden, dürfte heute jeder dieses Getränk herstellen. Die Patente haben ja eine zeitlich begrenzte Laufzeit. Nur weil die Firma die Rezeptur geheim gehalten hat, profitiert sie auch heute noch davon. Deshalb ist es immer wieder eine wirtschaftliche Überlegung, ob man den Gegenstand einer Erfindung offen legt und dafür ein Patent erlangt oder ob man ihn geheim hält. Im pharmazeutischen Sektor sind Patente längst ein gängiges Instrument. Die Struktur von neuen Wirkstoffen könnte man gar nicht geheim halten, eine schlichte chemische Analyse würde sie der Konkurrenz offenbaren. Außerdem ist eine Offenlegung gegenüber den Zulassungsbehörden unerlässlich. Also wird hier ebenso wie in vielen anderen Wirtschaftszweigen mit Patenten gearbeitet. Die Möglichkeit, biotechnische Erfindungen zu patentieren, wird von den auf diesem Gebiet tätigen Firmen geradezu für unerlässlich gehalten. Denn der Patentschutz gestattet es den Firmen, eine bestimmte Zeit lang die von ihnen gemachten Erfindungen zu vermarkten, ohne dass ein Konkurrent diese neuen Entwicklungen einfach kopieren kann. Dadurch ergibt sich für die Firmen eine höhere Aussicht darauf, dass die teils sehr hohen Kosten für Forschung und Entwicklung auch wieder hereingeholt werden können. Wie auch beim eingangs zitierten Beispiel hat sich aber gerade gegen die Patentierung biotechnischer Erfindungen heftiger Widerstand geregt. Immer wieder wird von einer Patentierung des Lebens gesprochen, von einem Verfall sittlicher Normen und einer Herabwürdigung von Tieren und Pflanzen zu reinen Verfügungsgegenständen. Auch im Zusammenhang mit der Sequenzierung des humanen Genoms und anderer Genome haben sich Diskussionen ergeben, die sich im Wesentlichen um die Patentierung einzelner Gene drehen. Denn das Wissen um die Funktion von Genen, beispielsweise mit Blick auf das Auftreten von Krankheiten, stellt sich immer häufiger als ein Vorteil bei der Entwicklung von Medikamenten heraus. Die Gene könnten vielleicht sogar selbst einmal, wie bei der Somatischen Gentherapie, das Medikament darstellen. Kein Wunder also, dass Firmen an einer Patentierung von Genen interessiert sind. Nach formalen Kritierien sind Gene durchaus patentierbar. Vorausgesetzt, die Gensequenzen sind neu und die Gene oder ihre Produkte können gewerblich genutzt werden. Gerade der letzte Punkt ist von großer Bedeutung. Ohne in die Tiefen des Patentwesens einsteigen zu wollen kann man sagen, dass die gewerbliche Nutzung den wichtigen Unterschied zwischen einer Entdeckung und einer Erfindung ausmacht. So stellt die reine Klonierung und Sequenzierung eines Gens noch keinen patentierbaren Sachverhalt dar, sondern entspräche einer Entdeckung, wie beispielsweise der des Penicillins. Beim Penicillin machte erst die Erkenntnis, dass der Stoff als Antibiotikum einsetzbar ist, aus der Entdeckung eine gewerblich nutzbare Erfindung. Bei Genen sind ganz unterschiedliche Nutzungen vorstellbar und es wird noch heftige Auseinandersetzungen darüber geben, wie genau diese Nutzungen beschrieben sein müssen, um ein Patent zu rechtfertigen. Die Prüfung, ob eine Patentanmeldung auch wirklich patentwürdig ist, kann viele Jahre dauern. Hier gibt es zahlreiche Kriterien, die unterschiedlich ausgelegt werden können und oft zu langen Auseinandersetzungen zwischen Antragsteller und Patentamt führen. Für den Antragsteller bleiben oft nur wenige 61 Aus Entdeckungen werden Erfindungen: Prinzipien der Natur können für technische Anwendungen nutzbar sein. Biotechnologie und Wirtschaft Jahre Zeit, um nach endgültiger Erteilung des Patents von seinem exklusiven Nutzungsrecht Gebrauch zu machen. Die Laufzeit des Patents beträgt ja zwanzig Jahre schon ab Anmeldung, nicht erst ab Erteilung. Besonders im Pharmabereich klagen daher viele Firmen darüber, dass die Laufzeit von Patenten zu kurz ist. Neben solchen formalen Kriterien spielen aber im Zusammenhang mit Patenten auf biotechnische Erfindungen auch gefühlsmäßige Dinge eine Rolle. Die nüchterne Technisierung des Lebendigen wird von einigen beklagt und als bedrohlich empfunden. Doch kann man Gene schlicht als körpereigene Stoffe sehen wie Insulin oder andere Proteine, deren Patentierung sicher niemandem geschadet hat. So bleibt als wichti- Die Zeit läuft: Patente werden nur für eine beschränkte Zeitdauer erteilt. ge Frage vor allem offen, ob durch eine Patentierung von Genen womöglich der wissenschaftliche Fortschritt behindert wird. Manche Wissenschaftler fürchten, durch die Patente von Firmen in ihrer Arbeit eingeschränkt zu werden. Dies ist trotz einer an sich klaren Abgrenzung von Forschung und kommerzieller Nutzung – Forschung darf ungeachtet bestehender Patente immer betrieben werden – wegen unterschiedlicher Begriffsauslegungen nicht immer gänzlich auszuschließen. Solchen Tendenzen muss daher entgegengewirkt werden. Sie sind aber im Zusammenhang mit Patenten schon lange Gegenstand der Diskussion und 62 es kann davon ausgegangen werden, dass die Regeln, die sich im Pharmabereich über viele Jahrzehnte bewährt haben, auch mit Blick auf die Biotechnologie greifen werden. In strittigen Fällen wäre es letztlich auch wieder dem Gesetzgeber vorbehalten, eine Abschwächung von Patentansprüchen zu erzwingen. Gefühle spielen wohl besonders dann eine Rolle, wenn es nicht nur um die Patentierung von Genen, sondern um die Patentierung von Lebewesen geht. Mit Blick auf Mikroorganismen erschien das noch wenig problematisch. Hier gab es bereits eine lange Tradition und wenn überhaupt nur geringe Vorbehalte. Mikroorganismen werden schon seit rund 100 Jahren patentiert. Im Bereich der Pflanzen und Tiere ergaben sich allerdings eine Reihe von neuen Fragestellungen. Diese hatten sowohl einen formalen als auch einen grundsätzlichen Hintergrund. Bei den formalen Kriterien ging es vor allem darum, wie man gentechnisch veränderte Pflanzen und Tiere behandeln sollte. Nach bislang geltendem Patentrecht waren Pflanzen und Tiere nicht patentierbar, sondern unterlagen anderen Regelungen, beispielsweise dem Sortenschutz. Gentechnische Veränderungen können aber prinzipiell auf verschiedenste Sorten angewendet werden und benötigten nach Ansicht der Fachleute daher eine breitere Abdeckung. Nach jahrelangen Diskussionen wurde vom Europäischen Patentamt im Herbst 1999 eine Patentrichtlinie verabschiedet, die eine Patentierung gentechnisch veränderter Pflanzen und Tiere prinzipiell erlaubt. Neben anderen Aspekten geht es nicht zuletzt um die Frage, ob eine Patentierung eine zu starke Reduktion von Lebewesen allein auf den Nutzen, den sie für den Menschen haben, bedeutet. Betrachten wir den Fall, dass ein transgenes Schaf ein menschliches Gen enthält und dadurch in der Lage ist, ein therapeutisch wichtiges menschliches Protein in seiner Milch herzustellen. Das Schaf erleidet dadurch keine Nachteile, sondern ist in seinen sonstigen Eigenschaften völlig unverändert. Sämtliche Gesetze und Bestimmungen für eine tiergerechte Haltung bleiben in Kraft. Ein Patent auf ein solches Schaf wird dessen Lebensqualität schwerlich beeinflussen können. Das Patent ändert auch nichts am Verhältnis zu den für den Tierschutz verantwortlichen Behörden, die ihre Aufsichtsbefugnisse in vollem Umfange wahren. Eine andere Komponente kommt ins Spiel, wenn wir den Fall der so genannten Onkomaus betrachten. Biotechnologie und Wirtschaft Das ist das Beispiel, an dem sich die Diskussionen um eine allgemeine Patentierbarkeit transgener Tiere bei uns ganz wesentlich entzündet hat. Im Fall der „Onkomaus“ ist durch Einklonieren eines menschlichen Krebsgens eine Mauslinie entstanden, deren Mitglieder frühzeitig und reproduzierbar bestimmte Tumorarten entwickeln. Damit ist diese Mauslinie ein wertvolles Modell für neue Medikamente, die Krebsleiden beim Menschen lindern können. Wir nehmen dafür bewusst in Kauf, dass die Mäuse unter den verursachten Tumoren zu leiden haben. Dem Nutzen für den Menschen steht hier – wie bei vielen anderen Krankheitsmodellen auch – ein Leiden des Tieres gegenüber. Diese Konstellation ist unter ethischen Gesichtspunkten vielfach diskutiert worden und wird es auch heute noch. Zumeist werden Tiermodelle als vertretbar angesehen, wenn ein großer Nutzen für die Erforschung schwerer menschlicher Krankheiten, wie Krebs oder AIDS, die Leiden des Tieres aufwiegen kann. Ein wenig bekannter Umstand soll in diesem Zusammenhang abschließend noch erwähnt werden. Viele Medikamente, die für den Menschen entwickelt wurden, finden auch bei unseren Haustieren Anwendung. 63 Biotechnologie und Gesellschaft 6. Biotechnologie und Gesellschaft 6.1 Wer nicht wagt... Risiken und ihre Wahrnehmung Die bisherige Diskussion um die Anwendungen der modernen Biotechnologie hat verschiedene Phasen durchlaufen. Sie begann schon sehr früh unter den Wissenschaftlern, die sich mit möglichen inhärenten Gefahren der neuen Vorgehensweisen beschäftigten. Keine Berührungsängste: Bundesministerin Bulmahn setzt sich für den Dialog mit der Öffentlichkeit ein, hier im „Sciencelive-Mobil“ Diese Sicherheitsdiskussion wurde von der Politik und der Öffentlichkeit mit kurzer Verzögerung aufgenommen. Im weiteren Verlauf überlagerte sich der reinen Sicherheitsdiskussion dann immer mehr ein Abwägen der gesellschaftlichen Konsequenzen, die sich aus den Anwendungen der Biotechnologie ergeben könnten. Eine konsequente Ablehnung aller, insbesondere der gentechnischen Anwendungen der modernen Biotechnologie findet heute kaum noch Unterstützung. Dafür sind die Vorteile gerade im medizinischen Sektor zu offensichtlich. Auch Kapitel 7 am Ende dieser Broschüre macht das deutlich. Dennoch müssen die möglichen Konsequenzen einer immer besser werdenden Diagnostik und einer immer individueller werdenden Therapie weiter diskutiert werden. Im Bereich der Diagnostik dürfen die Patienten, denen mit hoher Sicherheit eine genetische Prädisposition für ein bestimmtes 64 Leiden bestätigt wird, mit dieser Information nicht allein gelassen werden. Hier muss für die notwendige Betreuung gesorgt werden. Es darf weiterhin nicht zur Diskriminierung aufgrund der individuellen genetischen Ausstattung kommen. Und es muss insbesondere dafür gesorgt werden, dass der medizinische Fortschritt für alle gleichermaßen verfügbar bleibt. Damit sind nur einige Punkte genannt, denen wir unsere Aufmerksamkeit im medizinischen Bereich schenken müssen. Die Diskussion um die Biotechnologie im Agrobereich hat seit 1999 an Schärfe wieder zugenommen. Rückblickend wirkt sich hier die Tatsache, dass nicht von Anfang an eine klare Kennzeichnung der neuen Produkte erfolgt ist, sehr negativ aus. Besonders in Europa konnte dadurch der Eindruck entstehen, dass seitens der Industrie Produkte in den Markt eingeführt werden sollten, ohne für eine ausreichende Information der Verbraucher zu sorgen. Auch mag die Tatsache eine Rolle spielen, dass die ersten gentechnisch veränderten Pflanzen vor allem für die Landwirte Vorteile brachten, nicht aber unmittelbar für den Verbraucher. Dass die größten Fortschritte auf diesem Gebiet vor allem in den USA erzielt wurden und von den Firmen dort aggressiv vermarktet worden sind, hat vielleicht noch ein Übriges getan. In dieser Diskussion gilt es nun, wieder stärker zwischen wissenschaftlichen und gesellschaftspolitischen Fragen zu unterscheiden. Noch immer stehen Warnungen vor schädlichen Auswirkungen im Raum und müssen überall dort ernst genommen werden, wo sie nicht jeder Grundlage entbehren. Die wissenschaftliche Auseinandersetzung wird hier weitergehen. Dabei wird man in zunehmendem Maß auf die Erfahrungen mit großflächigem Anbau in den USA und anderen Ländern zurückgreifen können. Wichtig bleibt für eine Beurteilung natürlich immer der Vergleich mit den bisher eingesetzten Methoden. In Deutschland werden Freisetzungsexperimente von einer umfangreichen Sicherheitsforschung begleitet. Biotechnologie und Gesellschaft BMBF-Aktivitäten Schon seit 1987 wird durch das BMBF in einem eigenständigen Programm die „Biologische Sicherheitsforschung“ im Bereich der Bio- und Gentechnologie gefördert. Aktuelle Ergebnisse wurden anlässlich eines Statusseminars Mitte 1999 vorgestellt. Der Mensch wird aber auch weiterhin gezwungen sein, in Zeiten der Unsicherheit zu entscheiden. Der Anspruch, vorausschauend alle denkbaren Risiken auszuschließen, kann schlicht nicht erfüllt werden. Bei der Entscheidungsfindung müssen Chancen und Risiken deshalb gegeneinander abgewogen werden. Dabei definiert sich ein Risiko mathematisch über die Multiplikation einer vermuteten Schadenshöhe mit der Eintrittswahrscheinlichkeit. Bei steigendem Wohlstand werden die Risiken gegenüber den Chancen offenbar immer stärker gewichtet. Auch die Diskussion um Anwendungen der modernen Biotechnologie in der Medizin hat das gezeigt. Solange die Chancen in gleicher Weise hypothetisch waren wie die Risiken, überwog eine ablehnende Haltung in der breiten Öffentlichkeit. Eine spürbare Wende hin zur Akzeptanz vollzog sich erst, als die Chancen in Form neuer Medikamente und Therapieansätze für die Öffentlichkeit konkret erfahrbar wurden. Eine Risikodiskussion bleibt wichtig. Sinnvoll kann sie aber nur geführt werden, wenn sie sich an belegbaren Daten orientiert. Dabei muss eine Forderung an die Wissenschaft sein, dass komplizierte Sachverhalte auch für den Nichtfachmann nachvollziehbar dargestellt werden. Die Forderung an eine eventuelle Kritik der Biotechnologie muss sein, dass sie sachliche Argumente gelten lässt und nicht mit reinen Behauptungen agiert. In der Vergangenheit sind beide Forderungen nicht immer erfüllt worden. Es muss in der Risikodiskussion nicht notwendigerweise einen Konsens geben. Konsens ist wünschenswert, aber nicht zwingend erforderlich. Eine Demokratie lebt meist in einem – hoffentlich konstruktiven – Dissens. Davon wird sie letztlich stark belebt und gewinnt viele Anregungen. Ein weiterer wichtiger Punkt ist die Risikowahrnehmung. Eine große Rolle spielt in diesem Zusammenhang die generelle Einstellung gegenüber dem Unvorhergesehenen. Für einen Forscher ist das Unvorhergesehene das eigentlich Interessante. Er interessiert sich in aller Regel ja für das Neue, das Unentdeckte, dem es nachzuspüren gilt. Ein vorhersagbares Ergebnis ist lediglich hochwillkommen zum Untermauern einer Theorie, ansonsten aber eher langweilig. Die breite Öffentlichkeit ist andererseits schnell beunruhigt, wenn bei einem Experiment etwas anderes herauskommt, als erwartet wurde. In der Kommunikation zwischen Forschern und der Öffentlichkeit müssen diese unterschiedlichen Positionen größere Beachtung finden. Von manchen Menschen wird ein gezielter missbräuchlicher Einsatz der Biotechnologie befürchtet. Die großartigen Möglichkeiten, die sie bei positiver Anwendung eröffnet, könnten bei Missbrauch womöglich zu schlimmen Konsequenzen führen. Es ist daher verständlich, wenn sich angesichts des großen Potenzials gerade in der Gentechnik auch Unbehagen einstellt. Dieses Unbehagen richtet sich nicht zuletzt auf einen Einsatz der neuen Methoden im militärischen Bereich. 65 Ohne Risikobereitschaft... ...kein Fortschritt. Biotechnologie und Gesellschaft Eine solche Anwendung ist zwar denkbar. Man kann durch eine ganze Reihe von Methoden gefährliche Mikroorganismen noch gefährlicher machen. Deutschland allerdings wird keine biologischen Waffen entwickeln und hat sich durch Ratifizierung einer internationalen Konvention hierzu bekannt. Entsprechende Arbeiten sind bei uns gesetzlich verboten. Es muss Ziel der Politik sein, ein Verbot solcher Arbeiten auch in den Ländern zu erreichen, die das Abkommen bislang noch nicht ratifiziert haben. 6.2 Kreuz und quer? Das Vagabundieren von Genen Das Verhalten von gentechnisch eingeführten Erbanlagen wird in Freilandversuchen sorgfältig kontrolliert. Es wird allzu leicht vergessen, dass der Mensch vor allem dadurch vehement in die Natur eingreift, dass er die dort herrschenden Selektionsbedingungen zu seinen Gunsten verändert. Durch intensive Hege und Pflege hat er Tieren und Pflanzen zum Überleben verholfen, die ihm nützlich sind, in der freien Natur aber wenig durchsetzungsfähig wären. Das ist bei unseren Hausund Nutztieren – vom Schoßhündchen zum Hausschwein, vom Schaf zur Milchkuh – besonders offensichtlich. Es trifft aber genauso auf viele Mikroorganismen und auf die Pflanzensorten zu, deren hohe Erträge unseren Bedarf an Nahrungsmitteln sichern helfen. Und es gilt auch für die meisten gentechnisch veränderten Organismen. Sie werden gezüchtet, um sich im Rahmen der vom Menschen vorgegebenen Selektionsbedingungen zu bewähren und damit seinen 66 Ansprüchen zu genügen. Sie tun das oft schneller und besser als Organismen, die durch klassische Methoden gezüchtet werden. Gentechnisch veränderte Organismen erhalten in aller Regel keine Eigenschaften, die ihnen einen Vorteil in der Natur bieten würden. Dennoch muss man sich besonders mit Blick auf Freisetzungsexperimente fragen, ob es zur Auskreuzung von Genen, also der Übertragung von Fremdgenen durch natürliche Kreuzung – z.B. aus gentechnisch veränderten Kulturpflanzen – auf Wildpflanzen, kommen und welche Auswirkungen das haben kann. Bestimmte Kulturpflanzen, beispielsweise Mais und Kartoffel, sind bei uns nicht heimisch, sondern vor langer Zeit eingeführt worden. Daher haben diese Kulturpflanzen keine „wilden“ Verwandten in unseren Breiten, mit denen sie sich kreuzen könnten. In diesen Fällen wäre also ein Anbau gentechnisch veränderter Pflanzen mit Blick auf ein Auskreuzen von Genen unproblematisch. Die Übertragung fremder Erbinformation innerhalb verwandter Arten, z.B. von gentechnisch verändertem Raps auf den „wilden Verwandten“, den Rübsen, ist dagegen möglich. Kreuzungen zwischen Raps und Rübsen sind in der Natur ja üblich. Man muss in einem solchen Fall abschätzen, ob die neu erworbene Eigenschaft einen Selektionsvorteil für die Wildpflanze bedeuten kann. Die Meinungen darüber können auseinander gehen und müssen wissenschaftlich geprüft werden. Eine andere Befürchtung geht dahin, dass die aus technischen Gründen in die Pflanzen eingeführten Resistenzgene von verrottendem Pflanzenmaterial auf Mikroorganismen des Bodens übergehen könnten. Hierfür müsste man zunächst einmal eine Genübertragung über Artengrenzen hinweg voraussetzen, die in der Natur äußerst selten ist und die ja das eigentlich neue Element der Gentechnik darstellt. Betrachten wir einen solchen Gentransfer trotzdem als relevant. Resistenzgene sind bei Mikroorganismen weit verbreitet. Die in der Pflanzen-Gentechnik verwendeten Resistenzgene stammen ursprünglich aus Mikroorganismen. Es würden also im angenommenen Fall Gene, die aus Mikroorganismen stammen, wieder in Mikroorganismen zurücktransferiert. Darin lässt sich kein neues Risiko erkennen, selbst dann nicht, wenn es sich um unterschiedliche Mikroorga- Biotechnologie und Gesellschaft Veränderte Rapspflanzen könnten verbesserte Rohstoffe liefern. nismenstämme handeln sollte. Denn eine direkte Genübertragung zwischen verschiedenen Mikroorganismen ist sehr viel wahrscheinlicher. Für einen solchen Austausch hat die Natur mit Plasmiden und Bakteriophagen sehr effiziente Systeme entwickelt. Den spekulativen Umweg über die Pflanzen muss man dazu nicht konstruieren. Es ergibt sich für das angenommene Szenario daher eine fehlende Schadenshöhe bei extrem niedriger Eintrittswahrscheinlichkeit. Die Sorge allerdings, dass mit den Antibiotika die schärfsten Waffen stumpf werden, die wir im Kampf gegen zahlreiche Infektionskrankheiten haben, ist unabhängig vom obigen Fall sehr wohl berechtigt. Durch den hohen Selektionsdruck, der durch die weltweite Anwendung von Antibiotika ausgeübt wurde, sind zunehmend resistente Stämme aufgetreten. Darauf ist in Kapitel 2.7 bereits hingewiesen worden. Diese Stämme haben überall dort einen Überlebensvorteil, wo Antibiotika eingesetzt werden. Dazu gehören natürlich auch unsere Krankenhäuser, wo das Phänomen resistenter Mikroorganismen unter dem Namen Hospitalismus zu einem echten Problem geworden ist. In den vergangenen Jahren konnte man die pathogenen Mikroorganismen durch immer neue und verbesserte Antibiotika in Schach halten. Heute beginnen solche Antibiotika knapp zu werden. Die klassische Biotechnologie verbündet ihre Kräfte deshalb mit der Gentechnik. Der Gedanke dabei ist, die Syntheseleistungen unterschiedlicher Antibiotikaproduzierender Stämme durch Gentransfer zu vereinen und so neue Antibiotika zu generieren. Auch darauf wurde bereits hingewiesen. 6.3 Prognosen sind schwierig... ...besonders wenn sie in die Zukunft gerichtet sind Dieses nicht ganz ernst gemeinte Zitat soll daran erinnern, dass Vorhersagen sicher ihren Wert haben, aber nur selten mathematisch exakt sein können. Das macht ja vielleicht auch ihren Reiz aus. Es soll an dieser Stelle trotzdem versucht werden, ein wenig in die Entwicklung der nächsten Jahre hineinzudenken. Wenig Zweifel gibt es daran, dass die Biotechnologie in den nächsten Jahren ihren Siegeszug fortsetzen wird. Vor allem den Erfolgen im medizinischen Sektor werden sich weitere hinzugesellen. Fachleute gehen davon aus, dass schon Ende der 90er Jahre jedes neu entwickelte Medikament von den Erkenntnissen der Biotechnologie profitierte. Die Sequenzierung des menschlichen Genoms wird einen neuen Erkenntnisschub auslösen und viele Ansatzpunkte für die Bekämpfung von Krankheiten liefern. Dabei dürften die Therapien immer individueller auf die genetische Ausstattung der einzelnen Patienten zugeschnitten werden. Neue Therapieformen wie die Somatische Gentherapie, aber auch neue Transplantationsverfahren werden getestet und möglicherweise in die medizinische Praxis eingeführt werden. Hier werden insbesondere auch solche Verfahren Bedeutung erlangen, die sich vorbeugend gegen Zivilisations- und Infektionskrankheiten richten. Bei allem Fortschritt in der Medizin werden wir die biologische Uhr aber nicht anhalten können. Das hätte unter Evolutionsaspekten ja auch keine Vorteile 67 Biotechnologie und Gesellschaft Gemeinsames Erbe: Trotz ihrer Vielfalt unterscheiden sich die Menschen in ihrer genetischen Ausstattung nur wenig. für die Gattung Mensch. Der Mensch wird sich als Individuum daher trotz der zukünftigen Möglichkeiten damit abfinden müssen, dass es keine lebenslange körperliche Frische geben kann. Den Traum von ewiger Jugend und Gesundheit wird er nach heutiger Erkenntnis nie realisieren können. Die Medizin kann dank neuer Erkenntnisse und Verfahren die menschlichen Gebrechen zwar erheblich besser bekämpfen als noch vor einigen Jahrzehnten. Aber bekannte und neue Krankheiten, Unfälle und der schlichte Alterungsprozess werden uns weiterhin begleiten. Diesen Umstand müssen und können wir akzeptieren. Andererseits wird es das Bestreben des Menschen bleiben, gegen das anzukämpfen, was er als Beeinträchtigung seiner Lebensqualität empfindet. Hier stehen Krankheiten sicher ganz vornean. Man wird im Zuge des medizinischen Fortschritts dann darauf achten müssen, dass 68 eine weitgehende Beherrschung bestimmter Leiden nicht dazu führt, dass die dennoch Betroffenen womöglich ausgegrenzt werden. Gerade diese haben die Aufmerksamkeit und Zuwendung der Gesunden besonders nötig. Ein Diskriminieren von kranken Menschen darf es nicht geben. Auch die medizinische Diagnostik wird sich erheblich verbessern. Die intensive Untersuchung der menschlichen Erbsubstanz macht es bereits heute möglich, die Anfälligkeit gegenüber bestimmten Krankheiten durch DNA-Analyse genau und schnell vorherzusagen. Diese Diagnosen werden immer stärker automatisiert und für immer mehr Krankheiten zur Routine werden. Wenn dabei die Veranlagung für ein Leiden erkannt wird, das noch nicht therapiert werden kann, können für den Patienten schwierige Situationen entstehen. Auch die pränatale Diagnostik kann Entscheidungen erforderlich machen, die früher gar nicht möglich und daher auch nicht nötig waren. Mit diesen neuen Entscheidungsoptionen muss daher sehr bedacht umgegangen werden, damit sie nicht zu Zwängen werden. Die Vorteile der diagnostischen Möglichkeiten liegen andererseits auf der Hand. Die Disposition für eine bestimmte Krankheit zu kennen, erlaubt es dem Betroffenen, sich entsprechend dem neuesten Kenntnisstand zu verhalten. Selbst dort, wo Therapien noch nicht möglich sind, kann das von Vorteil sein. Man muss sich auch bewusst machen, dass zumindest in den Familien, die mit Erbkrankheiten belastet sind, meist schon das Wissen um eine Anfälligkeit für diese Krankheit vorhanden ist. Eine DNA-Diagnose kann hier latente Besorgnis sowohl zu entlastender wie depri- Biotechnologie und Gesellschaft mierender Gewissheit machen. Im ersteren Fall werden die Untersuchten erheblich an Lebensqualität gewinnen. Im anderen Fall, wenn der Test eine angenommene Disposition bestätigt, ist das Ergreifen von – zum Teil sehr schwerwiegenden – präventiven Maßnahmen nun zumindest klar begründet. Diese müssen nicht mehr auf Verdacht eingeleitet werden. Auswirkungen der neuen diagnostischen Möglichkeiten auf das Verhältnis von Versicherten zu Kranken- oder Lebensversicherern, auf die Einstellungsuntersuchungen von Arbeitnehmern bis hin zur Wahl des Ehepartners werden gleichfalls intensiv diskutiert. Es bleibt zu klären, in welchem Maß die neuen Möglichkeiten hier einbezogen werden können und sollen. Nicht zuletzt wird man die neuen diagnostischen Verfahren auch nutzen, um die Wirkung eines bestimmten Therapeutikums auf einen Patienten vorherzusagen. Hier spielt u.a. die Ausprägung bestimmter enzymatischer Aktivitäten in unterschiedlichen Individuen eine Rolle. Von diesen Kenntnissen wird auch bei der Austestung neuer Medikamente Gebrauch gemacht, so dass es in Zukunft vielleicht insgesamt mehr Zulassungen für Medikamente geben wird, die sich dann jeweils an kleinere Patientenkollektive wenden. Dies hat damit zu tun, das man schon die Austestung eines Medikaments auf einen Patientenkreis konzentrieren kann, der wegen seiner genetischen Ausstattung auf den Wirkstoff gut anspricht und nur geringe Nebenwirkungen zeigt. Daraus könnte sich eine neue Aufteilung des Pharmamarkts mit Rückwirkungen bis hin zur Neuausrichtung der Pharmaindustrie ergeben. Von Entwicklungen im medizinischen Bereich sind wir alle besonders betroffen. Die neuen Möglichkeiten haben in der Vergangenheit daher immer wieder für Diskussionen gesorgt und werden das wohl auch in Zukunft tun. Wir werden uns neuen Herausforderungen in Wissenschaft und Politik immer wieder stellen müssen. Die Mechanismen und Foren, die in der Vergangenheit den gesellschaftlichen Dialog getragen haben, werden in Zukunft vielleicht eine noch größere Bedeutung gewinnen. BMBF-Aktivitäten Mit bioethischen Fragen haben sich in den vergangenen Jahren zahlreiche Gremien und Institutionen beschäftigt. Im Mittelpunkt der Betrachtung standen Fragen der Humangenomforschung. Innerhalb der För- derung der Humangenomforschung hat das BMBF den ethischen, rechtlichen und sozialwissenschaftlichen Fragestellungen besondere Betrachtung geschenkt. Zusammen mit der Deutschen Forschungsgemeinschaft (DFG) hat das Ministerium eine neue Initiative gestartet. Ziel ist es, die praktische Ethik in der Wissenschaftslandschaft zu stärken. Der Dialog zwischen Wissenschaft, Politik und Öffentlichkeit soll versachlicht, die Zusammenarbeit der Forscher gefördert werden – über die Grenzen einzelner Disziplinen hinweg. Neben dem Aufbau eines Referenzzentrums zur Dokumentation und Sammlung von Informationen auf dem Gebiet der Ethik in den Biowissenschaften durch das BMBF, stellt die DFG Mittel für Forschungsprojekte auf diesem Gebiet zur Verfügung. Die möglichen Anwendungen der Biotechnologie in der Landwirtschaft sind zahlreich. Es wird nüchtern zu prüfen sein, ob sich die Vorteile, die in den neuen Varietäten gesehen werden, auch wirklich ergeben. Eine Reduzierung der Aufwandmengen an Herbiziden und Insektiziden in der Landwirtschaft ist seit vielen Jahren – und nicht zu Unrecht – gefordert worden. Pflanzen, mit denen unter Beibehaltung der Erträge einer solchen Forderung entsprochen werden kann, sind daher schon lange das Ziel klassischer Züchtungsversuche. Wenn solche Pflanzen jetzt verfügbar sind und keine anderweitigen Nachteile haben, spricht nichts gegen einen umsichtigen Einsatz. Sie könnten uns einem lange angestrebten Ziel ein gutes Stück näher bringen. Verminderte Aufwandmengen an Herbiziden und Insektiziden sind ja nach wie vor ökologisch begrüßenswert. Durch die neuen Methoden werden zahlreiche andere Pflanzen mit verbesserten Eigenschaften vorstellbar. Dazu gehören solche mit veränderten Inhaltsstoffen, von denen Ansprüche der menschlichen und tierischen Ernährung besser erfüllt oder die an technische Erfordernisse optimal angepasst werden können. Eine entsprechende Unbedenklichkeit vorausgesetzt, werden solche Produkte zunehmend ihren Weg in den Markt finden. Die letzten Jahre haben allerdings gezeigt, dass man dies nicht erzwingen kann. Vielmehr wird das nur im offenen Dialog mit dem Verbraucher und durch eine entsprechende Bewerbung der Produkte möglich sein. Der Einsatz gentechnisch veränderter Pflanzen in der Landwirtschaft ist notwendigerweise mit einer Freisetzung verknüpft. Solche Freisetzungen müssen weiterhin sorgfältig begleitet und kontrolliert werden. 69 Biotechnologie und Gesellschaft Aus den weltweit gewonnenen Erkenntnissen sollten sich aber zuverlässige Regeln für einen verantwortlichen Umgang mit diesen Pflanzen ableiten lassen. Die Biotechnologie hat in der 2. Hälfte des 20. Jahrhunderts einen großen Sprung nach vorn gemacht. Die Fülle des Wissens, die sie uns beschert hat, ist enorm. Wir können es nutzen, um bestehende Produktionsprozesse ökonomisch und ökologisch zu verbessern. Immer mehr neue Anwendungen werden in Medizin, Landwirtschaft und vielen anderen Bereichen vorstellbar. Diese können dazu beitragen, unsere Lebensqualität weiter zu steigern. Eine neue Branche hat sich geformt und bietet Arbeitsplätze mit Anforderungsprofilen, auf die sich unser Ausbildungssystem flexibel einstellen muss. Das BMBF hat die Entwicklung der Biotechnologie in Deutschland mitgestaltet und gefördert. Es wird diese Entwicklung auch in Zukunft intensiv begleiten und dabei mitwirken, dass die vielen Möglichkeiten, die sich uns bieten, verantwortlich genutzt werden. 70 Glossar Glossar Aminosäuren Organische Verbindungen, die als charakteristisches Merkmal sowohl eine Aminogruppe als auch eine Carboxylgruppe besitzen. Die 20 sogenannten „natürlichen“ Aminosäuren werden an den Ribosomen einer Zelle gemäß dem Bauplan der DNA zusammengehängt und bilden die Proteine. Antibiotika Niedermolekulare Substanzen, die hauptsächlich von Mikroorganismen produziert werden und das Wachstum anderer Mikroorganismen hemmen können. Antigene Fremdstoffe, die das Immunsystem zur Produktion von Antikörpern anregen. Antikörper sind von weissen Blutkörperchen erzeugte Proteine, die zur Abwehr eingedrungener Fremdstoffe dienen. Bakterien Einzellige Mikroorganismen ohne Zellkern. Sie eignen sich sehr gut für biotechnische Produktionsverfahren, da sie in billigen Nährlösungen schnell vermehrt werden können. Basen Allg. Gegenspieler von „Säuren“, mit denen sie sich zu „Salzen“ neutralisieren. In der Molekulargenetik sind „Basen“ die übliche Bezeichnung für die basischen Bestandteile der Nukleotide, den Untereinheiten von DNA und RNA. Die genetische Information wird durch die vier DNA-Basen Adenin (A), Cytosin (C), Thymin (T) und Guanin (G) codiert (s. Struktur der DNA ). Basenpaar Die beiden Basen Adenin und Thymin sowie die beiden Basen Cytosin und Guanin bilden in einem DNA-Doppelstrang jeweils Paare aus, die durch schwache Bindungen zusammengehalten werden. Die Summe dieser Bindungen ist für den Zusammenhalt der beiden DNA-Stränge verantwortlich. Etwas missverständlich wird der Begriff Basenpaar auch für zwei komplementäre Nukleotide gebraucht. Die Aussage, dass die menschliche DNA aus 3 Milliarden Basenpaaren besteht, bedeutet genauer, dass sie aus rund 6 Milliarden Nukleotiden aufgebaut ist. cDNA entsteht durch die Synthese von DNA an mRNA, also einem Prozess, der umgekehrt läuft wie die normalerweise stattfindende Synthese von mRNA an DNA (Transkription). Während die Gene höherer Organismen meist Einschübe (Introns) enthalten, sind diese Einschübe in der cDNA nicht mehr vorhanden. Sie werden beim Entstehen der mRNA aus dieser entfernt. 71 Glossar Chimäre ein Organismus, der aus Zellen verschiedener Tiere bzw. Pflanzen besteht. Chromosom (gr. Farbkörper, weil mit spez. Farbstoffen anfärbbar) Sehr langes DNA-Molekül, das viele Gene enthält. Die DNA ist an eine Vielzahl unterschiedlicher Proteine gebunden und dadurch geschützt. Alle Zellen einer Tier- oder Pflanzenart (mit Ausnahme der Keimzellen) enthalten denselben charakteristischen Satz von C. Auch das grosse DNAMolekül der Bakterien wird als C. bezeichnet. Cytokine Oberbegriff für zahlreiche körpereigene Substanzen, die von Zellen des Immunsystems während der Immunantwort freigesetzt werden. Sie sind wichtig für Reparaturmechanismen von Gewebeschäden und stimulieren spezifisch das Wachstum von Zellen. Zu den Cytokinen gehören u.a. Interleukine (IL), Interferone und die Wachstumsfaktoren GM-CSF und G-CSF (s. Kap. 7). Desoxyribonukleinsäure; DNA/DNS (engl. deoxyribonucleic acid, deutsch Desoxy-Ribonukleinsäure). Die Erbsubstanz aller Organismen – von einigen Viren abgesehen, bei denen die Erbinformation in der RNA gespeichert ist. Die DNA besteht aus linear verknüpften Nukleotiden, deren Abfolge die Erbinformation bildet. Differenzierung In höheren Organismen sind unterschiedliche Typen von Zellen vorhanden, die spezialisierte Funktionen erfüllen. Eine Hautzelle des Menschen muss andere Aufgaben erledigen als eine Leberzelle. Der Prozess, der spezialisierte Zellen entstehen lässt, wird als Differenzierung bezeichnet. In höheren Organismen entstehen alle Zelltypen durch Teilung und Differenzierung aus der befruchteten Eizelle. Doppelhelix Zwei schraubenförmig umeinander gewundene DNA-Stränge (s. Struktur der DNA ) Enzyme Proteine, die chemische Reaktionen beschleunigen (Biokatalysatoren). Eukaryonten Zellen mit echtem Zellkern Fluoreszenzfarbstoff Farbstoff, der bei Bestrahlung mit kurzwelligem UV-Licht Licht im sichtbaren Wellenlängenbereich aussendet. Gen Grundeinheit der Erbinformation. Ein G. besteht aus einem DNA-Abschnitt, der die Information zur Synthese einer RNA enthält. In einigen Fällen ist die RNA selbst das Endprodukt. Meist dient sie aber dem Transport der genetischen Information zu den Ribosomen, wo dann Proteine gebildet werden. Genbank Sammlung von klonierten Genfragmenten. Genexpression Ablesen der in den Genen enthaltenen Informationen in mRNA, meistens zur Umsetzung in Proteine. 72 Glossar Genetischer Code Stellt die Beziehung zwischen der Nukleotid-Abfolge in einem Gen und der Aminosäure-Abfolge in einem Protein her. Genom (Genotyp) Summe der Erbanlagen eines Organismus. Gentechnik Verfahren zur gezielten Veränderung des Erbguts von Organismen. Gentherapie Versuch der Heilung von Krankheiten z.B. durch das Einführen intakter Gene in die „kranken“ Zellen. Man unterscheidet beim Menschen die erlaubte (nicht auf die Nachkommen vererbbare) Somatische Gentherapie an Körperzellen von der verbotenen Keimbahntherapie (auf die Nachkommen vererbbar) an den Keimzellen. Hybridisierung Doppelstrangbildung von komplementären einzelsträngigen DNA- und/oder auch RNA-Molekülen. Immunologie Wissenschaft, die sich u.a. mit den Abwehrreaktionen von Mensch und Tier gegen Organismen wie Bakterien, Pilze und Viren, aber auch mit Abwehrreaktionen gegen fremde Zellen und Gewebe bzw. gegen eigene Zellen und Gewebe beschäftigt (Autoimmunreaktionen). Insertieren Einfügen von DNA-Abschnitten in ein anderes DNA-Molekül. in vitro lat. im (Reagenz-)Glas in vivo lat. im Lebewesen, im Körper Karyogramm Mikroskopisches Bild aller im Zellkern enthaltenen Chromosomen, meistens nach Grössen sortiert dargestellt. Katalysator Reaktionsbeschleuniger Keimbahn Organe und Zellen des Körpers, die der Vererbung dienen. Klonen Erzeugen von Zellen oder ganzen Organismen, die genotypisch gleich sind. Die ursprüngliche Zelle stammt z.B. aus einem frühen Embryonalstadium. Klonieren Erzeugen von Zellen, die gentechnisch verändertes Erbgut enthalten. 73 Glossar Liganden Häufig relativ kleine Moleküle, die genau in die Bindungstasche von Rezeptoren passen. So wie nur ein ganz bestimmter Schlüssel in ein Schloss passt, können nur genau definierte Liganden mit ihren jeweiligen Rezeptoren in Wechselwirkung treten. Lymphozyten Bestimmte Klasse von weissen Blutkörperchen, die von entscheidender Bedeutung für das Immunsystem sind. messenger-RNA, mRNA Entsteht im Prozess der Transkription aus der DNA und enthält die Information zur Synthese eines Proteins. Metastase Bei Krebs eine Tochtergeschwulst durch Wachstum von Zellen, die sich vom Primärtumor abgelöst haben. Eine Metastase kann weit entfernt vom Primärtumor und in völlig anderen Geweben entstehen. Monoklonale Antikörper Strukturell identische Antikörper, die daher auch über die exakt gleiche Bindungsstelle für ein Antigen verfügen. Multipotenz, multipotent Eigenschaft von gewebetypischen Stammzellen, sich in unterschiedliche Zelltypen eines Organs (z.B. des Bluts) entwickeln zu können. Mutation Veränderung des Erbmoleküls DNA dergestalt, dass sich Veränderungen in der Abfolge der Nukleotide ergeben. Mutagenese Erzeugung von Mutationen. M. können u.a. durch UV- Licht oder andere Strahlung und zahlreiche Chemikalien ausgelöst werden. Nukleotid Grundbaustein der DNA. Ein Nukleotid besteht aus einer Zuckereinheit, die mit einer Base verbunden ist. An den Zuckereinheiten werden die Nukleotide durch Phosphatreste zu den DNA-Ketten (DNA-Einzelsträngen, s. Struktur der DNA) verbunden. Oligonukleotid (oligo, gr. wenig, gering) Abfolge von einigen wenigen bis zu vielen Hundert, miteinander verknüpften, Nukleotiden. Ein Oligonukleotid entspricht damit einem (sehr) kurzen DNA-Einzelstrang. Omnipotenz, omnipotent s. Totipotenz pathogen Krankheiten auslösend, krankmachend. PCR engl. polymerase chain reaction/Verfahren zur Vermehrung von DNA in vitro. 74 Glossar Penicillin Naturstoff, der von verschiedenen Pilzen, u.a. Penicillium chrysogenum, gebildet wird. Penicillin gehört zur Gruppe der ß-Lactam Antibiotika und stört die Synthese der Zellwand von Bakterien, wodurch diese letztlich abgetötet werden. Phänotyp Erscheinungsbild eines Organismus durch Ausprägung der Erbanlagen. Phage Abkürzung für Bakteriophage. P. sind Viren, die Bakterien befallen. Plasmide Ringe aus DNA-Doppelsträngen, die hauptsächlich in Bakterien vorkommen. Sie werden unabhängig vom Chromosom vermehrt und können in der Gentechnik bei der Klonierung fremder DNA von Nutzen sein. Pluripotent, Pluripotenz Potenzial von embryonalen Stammzellen, in Zellen verschiedener Gewebetypen ausreifen (differenzieren) zu können. Prokaryonten Zellen ohne Zellkern, z.B. Bakterien. Proteine Werden im Deutschen auch als Eiweisse bezeichnet. Sehr vielseitige Werkzeuge und Bausteine der Zellen, die viele Funktionen haben können, z.B. als Enzyme. P. bestehen aus Ketten von Aminosäuren. Teils sind mehrere Ketten von Aminosäuren zusammengelagert und ergeben erst dadurch das fertige Protein. Protoplasten Zellen ohne Zellwände. Rekombination Kombination von DNA unterschiedlicher Herkunft. Im klassischen Sinn bezieht sich R. auf den Austausch von Erbinformation zwischen eng verwandten DNA-Molekülen, z.B. einem väterlichen und einem mütterlichen Chromosom. Im Zusammenhang mit der Gentechnik bezeichnet R. ganz allgemein die Kombination von DNAMolekülen aus unterschiedlichen Quellen. Restriktionsenzyme Enzyme, die bestimmte Sequenzen der DNA erkennen und die DNA spezifisch schneiden können. Restriktionsschnittstelle DNA-Sequenz, die von einem Restriktionsenzym gespalten wird. Rezeptoren Moleküle, die u.a. auf Zelloberflächen anzutreffen sind. Sie sind in der Lage, ein genau definiertes Molekül zu binden, ihren Liganden. Das Zusammentreffen von Ligand und Rezeptor kann hochspezifisch eine Abfolge von Reaktionen innerhalb der Zelle in Gang setzen. 75 Glossar RNA Entsteht durch Transkription der DNA und enthält die Information zur Synthese eines Proteins (s. messenger-RNA) oder übt andere Funktionen aus (rRNA ist Bestandteil der Ribosomen, tRNA transportiert Aminosäuren zu den Ribosomen). RNA unterscheidet sich von der DNA durch das Vorhandensein einer anderen Zuckereinheit und die Verwendung der Base Uracil anstelle von Thymin. Ribosomen Komplexe Strukturen in Zellen, an denen die Synthese von Proteinen abläuft. Die als mRNA vorliegende genetische Information wird am Ribosom Triplett für Triplett in eine Abfolge von Aminosäuren innerhalb einer Proteinkette übersetzt. Selektion Auswahl von Organismen, die einen bestimmten Phänotyp aufweisen. Sequenzanalyse Ermittelt die Abfolge der Nukleotide innerhalb der DNA bzw. die Abfolge der Aminosäuren innerhalb von Proteinen. Somatische Gentherapie Gentherapie an Zellen des Körpers, ausser den Keimzellen. Die Veränderungen können daher nicht vererbt werden. Totipotent, Totipotenz Eigenschaft früher Embryonalzellen (meistens bis zum 8-Zellstadium) sich auch nach Abtrennung vom Embryo zu einem kompletten Organismus entwickeln zu können. Transformation Einführen fremder DNA in eine Zelle. transgen Als transgen werden höhere Organismen bezeichnet, die fremdes Erbgut tragen. Transkription Umschreiben der DNA in RNA. Wichtigstes Enzym hierfür ist die RNA-Polymerase. Translation Übersetzung der mRNA in Proteine. Triplett Abfolge von 3 Nukleotiden innerhalb der DNA. Einem Triplett in der DNA ist nach den Regeln des genetischen Codes eine definierte Aminosäure in einem Protein zugeordnet. Vakzin Impfstoff Vektor DNA-Molekül (z.B. ein Plasmid), das in Zellen eingeschleust werden kann und von den Wirtszellen bei Teilung meist an die Tochterzellen weitergegeben wird. Vektoren werden für die Übertragung von fremden DNAAbschnitten benutzt. 76 Glossar Virus Viren können in bestimmte Zellen eindringen und ihr Erbgut (d.h. die DNA bzw. RNA) einschleusen. Das Erbgut der Viren kann ins Genom der Zelle integriert werden (immer als DNA) und lange Zeit ohne Wirkung bleiben. Wird es aktiv, kommt es zur Produktion neuer Viren und meist zum Tod der Wirtszelle. Wasserstoff-Brückenbindung Sehr schwache Anziehungskraft zwischen kleinsten elektrischen Ladungen in der Elektronenhülle von Atomen. Wasserstoffatome, die an ein Atom eines stark elektronegativen Elements (Fluor, Sauerstoff, Stickstoff) gebunden sind, tragen eine positive Teilladung. Dadurch wirken sie auf Atome elektronegativer Elemente in benachbarten Molekülen elektrostatisch anziehend. Wirtszelle, Wirtsorganismus Zelle, die eingeschleuste Viren oder Plasmide vermehrt und/oder gewünschte Produkte herstellt. Zellkern Unter dem Mikroskop erkennbare Struktur in höher entwickelten Zellen (Eukaryonten), die mit einer Membran das Erbmaterial umschliesst. Zytostatika Substanzen, die teilungsaktive eukaroyntische Zellen – also auch menschliche Zellen – töten. Z. werden zur Behandlung von Krebserkrankungen eingesetzt. 77 Bundesministerium für Bildung und Forschung 7. Biotechnologie und Markt Ausgewählte Produkte der Biotechnologie Übersicht ausgewählter biotechnischer Produkte: Produkte in Medizin und Pharma ...............................................................................S. 79 Blutgerinnung ........................................................................................................S. 90 BMBF PUBLIK Monoklonale Antikörper........................................................................................S. 94 Impfstoffe................................................................................................................S. 97 Diagnostik ...............................................................................................................S. 99 Produkte in der Landwirtschaft................................................................................S. 102 Technische Enzyme ...................................................................................................S. 105 78 Biotechnologie und Markt Ausgewählte Produkte Es würde weit über das Anliegen dieser Broschüre hinausgehen, wollte man sämtliche Produkte auflisten, die mit den modernen Methoden der Biotechnologie hergestellt werden. Nachfolgend sollen aber wenigstens die besonders wichtigen Produkte genannt und Wirkstoffgruppen oder Produkte, die auf einem gemeinsamen Wirkprinzip beruhen, zusammenfassend erwähnt werden. Die vorgestellten Produkte kommen größtenteils aus dem Bereich der Pharmazie und Medizin. Zur Erläuterung der Wirkweise von Pharmazeutika wurden in den „Produktteil“ dieser Broschüre auch einige Grafiken aufgenommen und die wichtigsten Regelkreise, an denen die modernen Therapeutika ansetzen, werden kurz erklärt. Die Zulassung neuer Medikamente erfolgt in unterschiedlichen Ländern zu unterschiedlichen Zeiten und nach unterschiedlichen Prüfverfahren. Die Broschüre listet nur solche Medikamente, die mindestens in Europa und/oder den USA eine Zulassung haben. Es kann deshalb sein, dass einige der aufgeführten Produkte in Deutschland noch nicht auf dem Markt sind. Spezielle Handelsnamen für pharmazeutische Wirkstoffe, die sich von Land zu Land unterscheiden können, finden keine Berücksichtigung. Nachfolgend werden die Produkte nach der wissenschaftlichen Bezeichnung des Wirkstoffs oder der Wirkstoffgruppe alphabetisch aufgeführt. Sind die Wirkstoffe nicht eindeutig zu benennen, wie etwa im Falle hybrider Proteine, dann werden die pharmazeutischen Namen der Produkte verwendet. den weiteren Anwendungen können nur exemplarische Entwicklungen vorgestellt und Produktgruppen summarisch beschrieben werden. Auf die Diskussion um den Nutzen der unterschiedlichen Entwicklungen wird an anderer Stelle in dieser Broschüre kurz eingegangen. Produkte in Medizin und Pharma Einen erheblichen Fortschritt haben die neuen Möglichkeiten der Biotechnologie für die Medizin bedeutet. Insbesondere dank der Gentechnik und dank neuer zellbiologischer Methoden konnten Herstellungsverfahren verbessert oder völlig neue Therapeutika produziert werden. Damit wurde die Produktsicherheit sowohl mit Blick auf die Verfügbarkeit als auch mit Blick auf die Reinheit gesteigert. Viele der heute verwendeten Medikamente sind überhaupt nur mittels biotechnischer Verfahren zugänglich. Darüber hinaus ist die Biotechnologie bei der Erforschung neuer Medikamente ein unverzichtbares Werkzeug geworden, da sie Krankheitsursachen zu identifizieren und entsprechende Testmodelle zu entwickeln hilft. Die Fachleute gehen schon heute davon aus, dass alle neu in den Markt eingeführten Wirkstoffe in irgendeiner Phase ihrer Entwicklung auf die Methoden der Biotechnologie angewiesen waren. Nachfolgend werden die wichtigsten biotechnisch hergestellten Wirkstoffe aufgeführt. Die Produkte wurden teilweise in Gruppen wie beispielsweise den Monoklonalen Antikörpern zusammengefasst und diesen Gruppen eine kurze allgemeine Einführung vorangestellt. Becaplermin Die Darstellung therapeutischer Maßnahmen kann hier nur äußerst grob erfolgen. Es sei daher an dieser Stelle erwähnt, dass viele der vorgestellten Medikamente nicht als alleinige Therapeutika gegen eine bestimmte Krankheit eingesetzt werden, sondern oft in Kombination mit anderen. Auch können nicht sämtliche Einsatzgebiete für alle der genannten Produkte erwähnt werden, sondern nur die hauptsächlichen. Der Produktteil ist in „rote“ und „grüne“ Biotechnologie sowie in „weitere Anwendungen“ untergliedert. Auch im Bereich der grünen Biotechnologie und bei Bei Becaplermin handelt es sich um einen rekombinant hergestellten Wachstumsfaktor (rhPDGF), der normalerweise von den Platelet-Zellen des Blutes gebildet wird. Die Platelet-Zellen haben die wichtige Aufgabe, auf bestimmte Signale hin die Blutgerinnung zu aktivieren. Ein solches Signal kann beispielsweise eine geschädigte Gefäßoberfläche sein. Dann kommt den Platelet-Zellen auch die Aufgabe zu, an der Behebung dieser Schäden mitzuwirken. Die Wirkung von Becaplermin besteht nun darin, solche Zellen chemotaktisch anzuziehen und zur Proliferation anzuregen, die dann 79 Biotechnologie und Markt ebenfalls an den Reparaturarbeiten beteiligt sind. Das rekombinante Becaplermin findet daher als aktiver Bestandteil einer Wundsalbe Verwendung. Diese wird bei der Behandlung von Geschwüren eingesetzt, die besonders häufig an den Beinen von Diabetespatienten auftreten. Das Becaplermin hilft, die Wundheilung zu beschleunigen. Becaplermin wird nach gentechnischer Veränderung von der Bäckerhefe Saccharomyces cerevisiae gebildet. Das Protein ist ein Homodimer, besteht also aus zwei identischen Ketten. Die beiden jeweils 109 Aminosäuren langen Ketten sind über Disulfidbrücken kovalent miteinander verbunden. Toxins (Met1-Thr378)-His- sind mit dem Interleukin-2Anteil (Ala1-Thr133) verbunden. Das Fusionsprotein hat eine Größe von 58 kD. Erythropoietin Bei Patienten mit Nierenschädigung kommt es häufig zur Anämie, das Blut enthält also zu wenig rote Blutkörperchen. Diese entstehen aus Stammzellen des Knochenmarks. Die Bildung der roten Blutkörperchen, der Erythrocyten, wird von einem spezifischen Wachstumsfaktor angeregt, der in den Nieren produziert wird. Von dort aus gelangt dieser Wachstumsfaktor – Erythropoietin oder kurz EPO genannt – über den Blutkreislauf zu seinem Zielort. Denileukin Diftitox Für Dialysepatienten bedeuten moderne Wirkstoffe eine Verbesserung der Lebensqualität. Bei diesem zu Beginn des Jahres 2000 nur in den USA erhältlichen Produkt handelt es sich um ein Fusionsprotein, das einen Teil des Diphterie-Toxins mit einem Interleukin-2-Molekül verbindet. Denileukin ist damit ein Produkt der so genannten zweiten Generation, da es in der Natur nicht vorkommt. Von Produkten der ersten Generation spricht man, wenn mit biotechnischen Verfahren Stoffe hergestellt werden, die auch in der Natur vorhanden sind oder sich von diesen nur geringfügig unterscheiden. Denileukin richtet sich gegen eine bestimmte Form der T-ZellLeukämie, bei der die malignen, also bösartigen Zellen der Patienten eine große Menge von Interleukin-2-Rezeptoren auf ihrer Oberfläche tragen. Das Prinzip ist dann recht elegant. Die Interleukin-2-Rezeptoren auf den bösartigen Zellen binden das Fusionsprotein über dessen Interleukin-2-Anteil und werden dann von der aus dem Diphterie-Toxin stammenden Komponente abgetötet. Das Fusionsprotein wurde in den USA nach einem beschleunigten Verfahren zugelassen und seine Wirkung auf die betroffenen Patienten wird weiter intensiv überwacht. Eingesetzt wird es dort, wo andere Therapieformen, z.B. die Gabe von Interferon, versagen. Die Anwendung des Medikaments ist für die Patienten allerdings mit erheblichen Nebenwirkungen verknüpft. Die Verabreichung kann daher nur unter strenger ärztlicher Aufsicht erfolgen. Das Fusionsprotein wird in Escherichia coli Bakterien hergestellt. Die Fragmente A und B des Diphterie- 80 Wenn die geschädigten Nieren zu wenig EPO produzieren, dann gehen aus den Stammzellen des Knochenmarks zu wenig Erythrocyten hervor. Wegen der verringerten Zahl von Erythrocyten, die für den Sauerstofftransport verantwortlich sind, fühlen sich die Patienten ständig schwach und müde. Dies beeinträchtigt die kranken Menschen, die durch eine meistens erforderliche Dialyse ohnehin erheblich belastet sind, noch zusätzlich. Abhilfe konnten hier bislang nur Bluttransfusionen schaffen. Die Verabreichung von EPO zur Stimulierung der Erythrocytenbildung stellt daher eine merkliche Erleichterung für die Patienten dar. Die Isolierung von EPO aus der natürlichen Quelle ist für therapeutische Anwendungen aber unmöglich. EPO ist im menschlichen Körper nur in geringsten Spuren enthalten. Daher bieten gentechnische Methoden die einzige Möglichkeit, diesen Stoff in größeren Mengen zu produzieren. Biotechnologie und Markt Tatsächlich ist es gelungen, die genetische Information für EPO zu isolieren und das Protein herzustellen. Das EPO gehört zur Gruppe der Glykoproteine. Bei diesen Proteinen sind bestimmte Aminosäuren noch mit Kohlenhydraten, also Zuckerresten, verknüpft. Im Falle von EPO ist diese Verknüpfung mit Kohlenhydraten für die Wirkung unbedingt erforderlich. Die üblichen Arbeitspferde der Genetiker, die Bakterien, können eine solche Verknüpfung aber nicht herstellen. Für die Produktion von EPO muss man daher auf Kulturen von gentechnisch veränderten tierischen oder menschlichen Zellen ausweichen. Diese Verfahren sind zwar aufwendiger, werden aber heute ebenso beherrscht wie die Fermentation von rekombinanten Bakterien und Hefen. Das Anwendungsgebiet für EPO hat sich seit seiner Einführung bei Patienten mit schwerer Nierenschädigung stark erweitert. Prinzipiell kann das Medikament überall dort helfen, wo eine chronische Anämie die Patienten belastet. Dies gilt bei Chemotherapien, bei Knochenmarktransplantationen und bei HIV-Infektionen, um nur einige weitere Anwendungen zu nennen. Auch bei der Anämie von Frühgeborenen oder bei der Vorbereitung einer Eigenblutspende kann EPO eingesetzt werden. Durch diese Erweiterung der Indikation hat sich auch die Zahl der Menschen stark erhöht, denen mit EPO geholfen werden kann. Durch Anwendung gentechnischer Verfahren ist EPO erstmals für therapeutische Zwecke verfügbar geworden. Heute rangiert dieses Therapeutikum unter den zehn weltweit erfolgreichsten Medikamenten überhaupt und fällt in die Kategorie der so genannten Blockbuster, das sind Medikamente, die mehr als eine Milliarde US-$ Umsatz im Jahr erzielen. Ende 1999 wurde EPO in den USA auch zur Behandlung von Kindern mit renaler Anämie, einer in dieser Altersgruppe seltenen Krankheit, zugelassen. EPO gehört zu den gentechnisch gewonnenen Therapeutika, die auch in Deutschland hergestellt werden. Das Medikament EPO hat in einem Bereich Aufsehen erregt, für den diese Entwicklung eigentlich nicht gedacht war – im Hochleistungssport. Denn auch im gesunden Menschen kann die vermehrte Bildung von Erythrocyten aufgrund des verbesserten Sauerstofftransports zu einer Leistungssteigerung führen. Das früher häufig angewendete Verfahren, Erythrocyten durch Höhentraining im Blut anzureichern, das derart angereicherte Blut zu konservieren und dem Athleten vor einem Wettkampf wieder zuzuführen, wird dadurch auf simple Weise imitiert. Diese Art des Dopings hat, vor allem im Rennsport, in den schlimmsten Fällen zum Tod der Athleten geführt. Ein Missbrauch von EPO ist schwer zu erkennen, da es ja ohnehin im Körper vorkommt. Es müssen daher andere Blutwerte gemessen werden, die nur indirekt einen Hinweis auf die Verwendung von EPO geben. Es ist zu hoffen, dass diesem Missbrauch wirkungsvoll Einhalt geboten werden kann. Etanercept Bei Etanercept handelt es sich wie schon beim Denileukin um ein echtes Kunstprodukt. Bestimmte Genabschnitte für zwei unterschiedliche Proteine wurden gentechnisch miteinander fusioniert. Dies führt zu einem hybriden Produkt, das sich aus Anteilen von zwei normalerweise völlig unabhängigen Proteinen zusammensetzt. Ein Anteil entspricht dabei der konstanten Domäne eines bestimmten Antikörpers mit Namen IgG1. Der andere Anteil entspricht der Domäne eines Rezeptors, der mit dieser Domäne den TumorNecrose-Faktor (TNF) bindet. Auf diese Domäne kommt es dabei besonders an. Der Tumor-Necrose-Faktor gehört in die Gruppe der Cytokine und spielt eine wichtige Rolle bei entzündlichen Prozessen im Körper. Dazu bindet der TNF an seinen Rezeptor, der in die Membran von Empfängerzellen eingebettet ist. Diese Bindung löst dann eine Kaskade von Reaktionen aus (siehe Seite 19). Der TNF kann nun aber nicht erkennen, ob die Bindedomäne seines Rezeptors in die Membran einer Zelle eingebettet oder – wie im Falle von Etanercept – lediglich mit der konstanten Region eines Antikörpers verbunden ist. Daher bindet der TNF an das Kunstprodukt Etanercept und wird dadurch unwirksam. Etanercept moduliert daher entzündliche Prozesse und kann beispielsweise bei bestimmten Formen der Rheumatoiden Arthritis erfolgreich eingesetzt werden. Bei der Rheumatoiden Arthritis handelt es sich um eine Autoimmunkrankheit, d.h. die Immunabwehr richtet sich gegen körpereigene Zellen und zerstört diese. Weil der TNF diesen fehlgeleiteten Prozess noch stimuliert, kann Etanercept durch Absenkung der wirksamen Konzentration an TNF eine positive Wirkung entfalten. Da das TNF im Körper andererseits aber viele wichtige 81 Biotechnologie und Markt Funktionen erfüllt und seine effektive Konzentration durch Etanercept nun herabgesetzt wird, muss die Anwendung sehr sorgfältig kontrolliert werden. Strengste Kontraindikation ist eine Infektionserkrankung des Patienten. Das hybride Protein Etanercept besteht aus 934 Aminosäuren und wird in Hamsterzellen (CHO-Zellen) hergestellt. Es ist ein Dimer aus zwei identischen Ketten, das zwei TNF Moleküle binden kann. Follikelstimulierendes Hormon (FSH, Follitropin alpha) Nach Angaben der Weltgesundheitsorganisation (WHO) leiden rund 8–10 % der Ehepaare an irgendeiner Form von Unfruchtbarkeit. Demnach sind in der Welt rund 50–80 Millionen Menschen von Unfruchtbarkeit betroffen. In rund 30–40 % der Fälle ist die Unfruchtbarkeit eindeutig der Frau zuzuordnen, in 10–30 % der Fälle eindeutig dem Mann. In 15–30 % sind beide Partner unfruchtbar, in 5–10 % bleibt der Grund für die Unfruchtbarkeit unklar. Der häufigste Grund für Unfruchtbarkeit bei Frauen ist eine Störung der Ovulation, also des Eisprungs. Hier muss die Eizelle den Follikel verlassen, in dem sie herangereift ist. Störungen dieses Prozesses werden oft durch eine zu geringe Menge des Hormons „Follikelstimulierendes Hormon“ (FSH) hervorgerufen. Zur Induktion einer Ovulation wird FSH daher ebenso eingesetzt wie bei der Vorbereitung auf eine In-vitro-Fertilisation, wo mehrere Eizellen reifen sollen. Bei Männern ist eine Unfruchtbarkeit am häufigsten auf Probleme bei der Spermatogenese zurückzuführen. Bei Vorliegen von Hypogonadotrophem Hypogonadismus werden nicht genügend Sexualhormone produziert, um eine Spermienbildung anzuregen. Auch hier kann FSH erfolgreich eingesetzt werden. Das für eine Behandlung erforderliche FSH wurde vor der Verfügbarkeit gentechnischer Methoden aus Urin aufgereinigt. Klinische Studien haben gezeigt, dass dem rekombinanten Produkt eine bessere Wirkung zugeschrieben werden kann. Das Hormon ist ein heterodimeres Glykoprotein, besteht also aus zwei unterschiedlichen Proteinketten, die jeweils noch mit Zuckerresten verknüpft sind. Die Länge der beiden Ketten beträgt 92 bzw. 111 Aminosäuren. Das rekom- 82 binante Produkt wird durch Kultur von gentechnisch veränderten Hamsterzellen (CHO) hergestellt. Calcitonin Beim Calcitonin handelt es sich um ein Hormon, das für die Regulation des Knochenstoffwechsels von Bedeutung ist. Die Größe der Knochen ändert sich zwar nach der Wachstumsphase nur noch geringfügig, doch wird die Knochensubstanz ständig auf- und abgebaut. Besondere Bedeutung kommt hierbei den Zelltypen der Osteoblasten (Knochenaufbau) und Osteoklasten (Knochenabbau) zu. Calcitonin wirkt hemmend auf die Aktivität der knochenabbauenden Osteoklasten. Das aus 32 Aminosäuren bestehende Calcitonin wurde im Jahr 1962 entdeckt. Das Hormon des Lachses wird schon seit vielen Jahren – extrahiert oder chemisch synthetisiert – in der Medizin eingesetzt. Man verwendet das Calcitonin aus Lachs, weil dieses eine besonders hohe biologische Aktivität im Menschen aufweist. Anwendung findet das rekombinante Calcitonin bei Krankheiten, die mit dem Stoffwechsel der Knochen oder erhöhten Calciumspiegeln im Blut zu tun haben, insbesondere der Paget-Krankheit und der Hypercalcaemie. Die Paget-Krankheit ist vorwiegend bei älteren Patienten anzutreffen; rund 3–4 % der Bevölkerung über 55 Jahre sind betroffen. Die Krankheit zeichnet sich durch eine Störung des Knochenstoffwechsels und daraus resultierend eine Deformation und eine erhöhte Brüchigkeit der Knochen aus. Gegenüber der chemischen Synthese oder anderen Produktionsverfahren bietet die Herstellung mittels gentechnisch veränderter E. coli Bakterien und nachfolgender enzymatischer Veränderung – unter Verwendung eines ebenfalls gentechnisch hergestellten Enzyms – eine Reihe von Vorteilen. Eine inhalierbare Version des gentechnischen Präparats wird getestet. Glucocerebrosidase (GCR) Das Fehlen des Enzyms Glucocerebrosidase im Körper führt zum Auftreten einer Krankheit, die als GaucherKrankheit oder Morbus Gaucher bekannt ist. Eine bestimmte Substanz, das Glucocerebrosid, kann dabei vom Körper nicht mehr richtig abgebaut werden und sammelt sich in den so genannten Fresszellen an. Das Biotechnologie und Markt führt häufig dazu, dass Leber und Milz stark anschwellen. Dieses Phänomen wurde von dem französischen Arzt Gaucher vor mehr als hundert Jahren erstmals beschrieben. Als Konsequenz der Schwellungen wird bei der Gaucher-Krankheit oft ein „dicker Bauch“ beobachtet. Daneben gibt es noch viele andere Symptome. Die Krankheit ist für die Betroffenen häufig mit starken Schmerzen und der Notwendigkeit chirurgischer Eingriffe verbunden. Die Krankheit kann schon in der Jugend oder erst in späteren Jahren auftreten und weist leichte und schwere Verlaufsformen auf. Je früher sie auftritt, desto schwerer verläuft sie in der Regel. Sie betrifft Männer wie Frauen gleichermaßen. Ihre Häufigkeit in der Gesamtbevölkerung beträgt rund 1:40.000. Mit sehr viel höherer Wahrscheinlichkeit findet sich die Krankheit allerdings bei Juden osteuropäischer Abstammung. In dieser Bevölkerungsgruppe tritt die Erkrankung mit einer Häufigkeit von rund 1:600 auf. Da die Krankheit durch das Fehlen eines einzelnen Enzyms verursacht wird, kann man sie durch Applikation des isolierten Enzyms therapieren. Dazu wird das Enzym seit wenigen Jahren aus menschlichen Plazentas isoliert und so modifiziert, dass es von den Fresszellen des Körpers leicht aufgenommen wird. Dies war ein entscheidender Schritt in der Therapie der Gaucher-Krankheit. Die Patienten sind allerdings auf eine ständige, lebenslange Versorgung mit dem Enzym angewiesen. Weltweit erhalten heute mehr als 1.000 Patienten die Enzymtherapie. Für die jährliche Versorgung nur eines Patienten müssen rund 20.000 Plazentas aufgearbeitet werden. Diese sind nicht immer einfach zu bekommen. Daher bieten sich gentechnische Methoden als ein alternatives Herstellverfahren an, das von der Versorgung mit Plazentas unabhängig macht. Die genetische Information für das Enzym Glucocerebrosidase wurde in Hamsterzellen übertragen und dieses kann heute aus Zellkulturen gewonnen werden. Das rekombinante Produkt wird seit 1994 vermarktet. Das bislang aus Plazentas gewonnene Produkt soll nach und nach durch das rekombinante Enzym ersetzt werden. Als Krankheit, die auf den Defekt in nur einem Gen zurückzuführen ist, bietet sich Morbus Gaucher als Target für eine Somatische Gentherapie an. Entsprechende Versuche wurden in den USA bereits durchgeführt. Da die Somatische Gentherapie insgesamt Ende 1999 einige schwere Rückschläge hat hinnehmen müssen, wird der Einsatz solcher Methoden aber wohl noch einige Zeit auf sich warten lassen. Granulocyten-Koloniestimulierender Faktor (G-CSF, Filgrastim) Die unterschiedlich spezialisierten Zellen unseres Blutes gehen aus gemeinsamen Vorläuferzellen, den so genannten Stammzellen, hervor. Für die spezifische Ausdifferenzierung der Stammzellen sind spezielle Faktoren verantwortlich. Einer dieser Faktoren wurde Die Biotechnologie liefert viele neue Wirkstoffe. mit dem Erythropoietin bereits vorgestellt. Auch G-CSF gehört zu den Differenzierungsfaktoren. Das G-CSF hilft dabei, dass aus Stammzellen die so genannten Granulocyten, eine bestimmte Sorte der weißen Blutkörperchen, entstehen. Die Granulocyten spielen eine wichtige Rolle im Immunsystem des Menschen. Sie halten insbesondere Bakterien in Schach, die sonst Krankheiten auslösen würden. Bei einer Chemotherapie an Krebspatienten wird das Immunsystem stark in Mitleidenschaft gezogen. Die zur Chemotherapie eingesetzten Zytostatika richten sich ziemlich unterschiedslos gegen alle Zellen, die sich teilen. Damit hemmen sie zwar wie erwünscht das Wachstum von Tumorzellen. Sie haben aber auch nachteilige Wirkungen auf die Zellen, die sich aufgrund ihrer normalen Funktion teilen müssen. Dazu gehören nicht zuletzt die oben erwähnten Stammzellen, aus denen sich die unterschiedlichen Typen der gesunden Blutzellen entwickeln. Daher wird die Fähigkeit des Knochenmarks, neue weiße Blutkörperchen zu 83 Biotechnologie und Markt produzieren, bei einer Chemotherapie stark in Mitleidenschaft gezogen. Das resultierende Absinken in der Zahl der Granulocyten macht die Patienten anfällig gegenüber Infektionen. Bakterien, mit denen das menschliche Immunsystem an sich leicht fertig wird, stellen plötzlich eine tödliche Bedrohung dar. Durch diesen Umstand wird die Dosis an Zytostatika, die man gegen die Krebszellen einsetzen kann, limitiert. Außerdem müssen die Patienten mit hohen Dosen an Antibiotika versorgt werden, um den Ausfall der Immunzellen zu kompensieren. Wird etwa einen Tag nach der Chemotherapie mit der Gabe von G-CSF begonnen, dann erholt sich das Immunsystem sehr viel schneller als ohne diese Behandlung. G-CSF stimuliert ja die Bildung von Granulocyten, so dass die Immunkompetenz in stark verkürzter Zeit wiederhergestellt werden kann. Dadurch befinden sich die Patienten entsprechend weniger lang in der gefährlichen Phase, in der sie Infektionen gegenüber anfällig sind. Die Sterblichkeit wird deutlich reduziert. Außerdem wird der Klinikaufenthalt insgesamt für die Patienten verkürzt und der Verbrauch an Antibiotika verringert. Bei Anwendung von Zytostatika in der Krebstherapie hat G-CSF heute einen festen und wichtigen Platz. Die Stimulierung der Bildung immunkompetenter Zellen ist auch bei Knochenmarktransplantationen von großem Vorteil. Durch Gabe von G-CSF wird nach solchen Transplantationen rund 7 Tage früher wieder ein immunkompetenter Status des Patienten erreicht. Daraus resultieren auch hier die oben bereits beschriebenen Vorteile. Generell kann G-CSF überall dort ein wichtiger Faktor sein, wo die Zahl der Granulocyten angehoben werden soll. Durch Anwendung gentechnischer Verfahren ist G-CSF erstmals für therapeutische Zwecke verfügbar geworden. Besonders durch den verbreiteten Einsatz in der Krebstherapie gehört G-CSF heute mit zu den wichtigsten Medikamenten. Granulocyten-Makrophagen-Koloniestimulierender Faktor (GM-CSF, Sargramostim) GM-CSF gehört ebenfalls zu den vielen Faktoren, die für eine Ausdifferenzierung der Stammzellen des Bluts 84 verantwortlich sind. Andere Beispiele aus dieser Palette sind die ebenfalls kurz vorgestellten Faktoren EPO und G-CSF. Die unterschiedlichen Typen der weißen Blutkörperchen erfüllen verschiedene Aufgaben. Für eine intakte Immunabwehr sind sie alle von großer Bedeutung. Der GM-CSF ist wie auch der G-CSF für die Ausdifferenzierung einer bestimmten Klasse der weißen Blutkörperchen verantwortlich. Während allerdings G-CSF ausschließlich eine Differenzierung in Granulocyten bewirkt, ist GM-CSF an der Ausdifferenzierung verschiedener Zelltypen beteiligt. Besonders wichtig ist GM-CSF für eine Differenzierung von Vorläuferzellen in Makrophagen. Auf bereits ausdifferenzierte Granulocyten und Makrophagen hat GM-CSF eine aktivierende Wirkung. Es konnte gezeigt werden, dass Patienten gegenüber Infektionen weniger anfällig sind, wenn sie mit GM-CSF behandelt werden. Wie schon für die anderen Differenzierungsfaktoren gilt auch für GM-CSF, dass es in den therapeutisch notwendigen Mengen nur durch gentechnische Methoden hergestellt werden kann. Das Gen für GM-CSF wurde daher in Hefe kloniert. Aus diesem Wirtsorganismus kann das Protein für die medizinischen Anwendungen gewonnen werden. Ein Einsatz von GM-CSF gilt – ähnlich wie beim G-CSF beschrieben – der schnelleren Regeneration des Immunsystems. Zugelassen wurde GM-CSF zunächst für die Anwendung nach autologen Knochenmarktransplantationen, später dann auch für die Anwendung nach allogenen Knochenmarktransplantationen. Im autologen Fall wird eigenes Knochenmark des Patienten transplantiert, im allogenen Fall das Knochenmark eines geeigneten Spenders. In beiden Fällen dient GM-CSF dazu, die Immunabwehr der Patienten schneller zu regenerieren. Bei der Transplantation von Knochenmark geht es darum, an die im Knochenmark besonders häufigen Stammzellen des Bluts zu gelangen, aus denen sich im Patienten dann – mit Hilfe der Differenzierungsfaktoren – die verschiedenen Zelltypen entwickeln sollen. In geringer Zahl sind die Stammzellen allerdings auch im Blut selbst enthalten und können durch eine spezielle Technik daraus isoliert werden. Dieses Verfahren ist für den Patienten weit weniger belastend als der Biotechnologie und Markt chirurgische Eingriff bei der Transplantation von Knochenmark. GM-CSF hat nun auch die Eigenschaft, die Zahl der Stammzellen im Blut zu erhöhen, was für ihre Gewinnung sehr vorteilhaft ist. Auch hier kann GMCSF daher eingesetzt werden. In der Krebstherapie findet GM-CSF heute ebenfalls Verwendung. Insulin Die Zuckerkrankheit, Diabetes mellitus, ist eine schwere Stoffwechselerkrankung. Ohne Behandlung führt sie zum Tod. Diabetes kommt aus dem Griechischen und bezieht sich auf die großen Harnmengen, die von nicht behandelten Kranken ausgeschieden werden. Mellitus, gleichfalls aus dem Griechischen, bedeutet in etwa „mit Honig gesüßt“ und verweist darauf, dass im Harn der Kranken Zucker vorkommt. Der Körper erkennt beim Diabetes den aus der Nahrung ins Blut gelangten Zucker, die Glucose, nicht und aktiviert fatalerweise eigene Reservestoffe wie Fette und Proteine, die stattdessen als Brennstoffe für seinen Energiebedarf herhalten müssen. Als „Schmelzen von Fleisch und Gliedern zu Harn“ hat der griechische Arzt Aretaios die Krankheit schon im 2. Jahrhundert nach Christus beschrieben. Das Insulin signalisiert den relevanten Körperzellen, dass Glucose vorhanden ist und aus dem Blut aufgenommen werden kann. Ist zuwenig Insulin vorhanden oder die Signalvermittlung zwischen Insulin und den Körperzellen gestört, dann kommt es zu dem oben beschriebenen Krankheitsbild. Dank der Arbeit von Medizinern und Biochemikern ist man der Bedeutung von Insulin schon früh auf die Schliche gekommen. Dieser intensiven Arbeit ist es zu verdanken, daß bereits im Jahr 1922 mit der InsulinBehandlung von Zuckerkranken begonnen werden konnte. Das Insulin gewann man zu diesem Zweck aus den Bauchspeicheldrüsen von Rindern und Schweinen. In den Schlachtereien wurden die Bauchspeicheldrüsen gesammelt, tiefgefroren und an die verarbeitenden Pharmafirmen geschickt. Dort wurden pro Tag dann mehrere Tonnen Bauchspeicheldrüsen aufgearbeitet. Es ist ausgerechnet worden, dass für die jährliche Versorgung eines zuckerkranken Menschen z. B. 50 Schweine geschlachtet werden mussten. Allein in Deutschland wird die Zahl der Menschen, die insulinpflichtig sind, auf rund 400.000 geschätzt. Der Weltbedarf an Insulin wird mit 5–6 Tonnen pro Jahr angegeben. Wegen der ständig steigenden Zahl von Zuckerkranken und der Kopplung der Insulingewinnung an die Schlachtung von Rindern und Schweinen wurde Mitte der 70er Jahre von der Weltgesundheitsorganisation davor gewarnt, dass die Versorgung mit Insulin zukünftig nicht mehr gewährleistet sein könnte. Da kam die Gentechnik gerade recht. Das Insulingen, und zwar die Bauanleitung für das menschliche Hormon, wurde isoliert und in Mikroorganismen eingeschleust. Dies passierte bereits Ende der 70er Jahre und gehört zu den vielen Pionierleistungen der Gentechnik. Durch die Anwendung zahlreicher Kniffe gelang es dann bald, die Mikroorganismen zur Produktion von Insulinvorläufern zu bringen, aus denen aktives, menschliches Insulin durch klassische Aufarbeitungsverfahren gewonnen werden kann. Bereits im Jahr 1982 wurde Humaninsulin als erstes Therapeutikum aus biotechnischer Herstellung in den Markt eingeführt. Heute hat das Humaninsulin die anderen Insuline fast vollständig vom Markt verdrängt. Auch in Deutschland, wo die Herstellung von Humaninsulin durch gesellschaftspolitische Auseinandersetzungen lange verzögert worden ist, wird heute ein biotechnisches Herstellverfahren eingesetzt. Zudem wurde in Frankfurt im Jahr 1999 mit dem Bau der weltweit größten Produktionsanlage für Humaninsulin aus biotechnischer Herstellung begonnen. Dieses Insulin soll inhaliert werden können. Das biotechnische Produktionsverfahren für Humaninsulin garantiert zunächst einmal die Versorgung der zuckerkranken Menschen mit diesem für sie lebenswichtigen Medikament. Die Möglichkeit, Humaninsulin einzusetzen, hat aber noch einen weiteren Vorteil. Da es sich beim Humaninsulin um einen körpereigenen Stoff handelt, sind bei seiner Anwendung weniger Nebenreaktionen zu befürchten. Hingegen unterscheiden sich Rinder- und Schweineinsulin etwas vom Humaninsulin. Dadurch kann es im Laufe einer längeren Applikation zu Abwehrreaktionen des Körpers mit teilweise sehr schweren Ausprägungen kommen. Eine solche Reaktion brauchen die Patienten bei Anwen- 85 Biotechnologie und Markt dung des Humaninsulins nicht mehr zu befürchten. Andere Entwicklungen zielen auf Insuline, die schneller oder langsamer wirken als das normale Insulin. In beiden Fällen können sich für die Patienten Vorteile ergeben. Ein gentechnisch hergestelltes Insulin, das schneller wirkt als das normale, wurde bereits in den Markt eingeführt. Die Applikationsform des Insulins, die wie ein Spray inhaliert werden kann und nicht mehr gespritzt werden muss, befindet sich in einer späten Phase der klinischen Prüfung. Interferon α Der Name Interferon wurde 1957 für einen Faktor geprägt, der Zellen gegen einen Angriff von Viren resistent machen kann. Heute weiß man, dass es eine Vielzahl unterschiedlicher Interferone gibt. Als Blutfaktoren, die normalerweise nur in äußerst geringen Konzentrationen vorhanden sind, können sie nur durch gentechnische Verfahren für therapeutische Zwecke gewonnen werden. Man unterscheidet α-, β- und γ-Interferone. Speziell die Klasse der α-Interferone spaltet sich noch weiter in viele Subtypen auf. Gentechnisch hergestellt und klinisch eingesetzt werden die Subtypen α-2-a und α2-b sowie ein daraus abgeleitetes Produkt (siehe unten). Man weiß heute, dass die antivirale Wirkung der Interferone nur eine von vielen ist. Interferone binden an die Oberflächen von Zellen und aktivieren dadurch verschiedene Gene. Die resultierenden Wirkungen sind komplex und können unterschiedliche klinische Relevanz haben. Aus den vielfältigen Wirkungen resultiert die Tatsache, dass α-Interferon heute für eine Vielzahl von Anwendungen zugelassen ist. In einigen Indikationen wird α-Interferon als allein wirksame Komponente gegeben. In anderen Fällen wird α-Interferon gemeinsam mit anderen Medikamenten eingesetzt. Eine Monotherapie-Anwendung zielt beispielsweise auf Patienten mit chronischer Hepatitis B oder C. Das Hepatitis-B-Virus (HBV) hat weltweit rund 300 Millionen Menschen infiziert. Rund 2 Millionen Todesfälle werden jedes Jahr dem HBV zugeschrieben. Daneben gilt es bei chronischen Trägern als mitverantwortlich für zahlreiche Leberdefekte bis hin zum Leberkrebs. 86 Das α-Interferon erwies sich bei entsprechender Anwendung als die erste verträgliche und wirksame Therapie der chronischen Hepatitis B. Bei der auf das Hepatitis-C-Virus zurückzuführenden chronischen Hepatitis bietet α-Interferon die einzige verfügbare Behandlung. Auch in der Behandlung einer der häufigsten Geschlechtskrankheiten (genitale Warzen) kann αInterferon sehr erfolgreich eingesetzt werden. Für diese Indikation ist auch eine aus Zellkulturen gewonnene Mischung verschiedener α-Interferone auf dem Markt. In Monotherapie oder Kombinationstherapie mit Zytostatika wird α-Interferon heute besonders auch gegen bestimmte Krebsarten eingesetzt. Dazu gehört in erster Linie Krebs von Blutzellen (z. B. bestimmte Leukämieformen), aber auch das Melanom oder das Nierenzellkarzinom. Auch Aids-Patienten mit KaposiSarkom profitieren von einer a-Interferonanwendung. Da α-Interferon sehr komplexe Reaktionsfolgen bewirkt, weist es ein Spektrum von Nebenwirkungen auf. Am bekanntesten sind grippeähnliche Symptome. Es muss daher sorgfältig kontrolliert verabreicht werden. Interferon Alfacon-1 Interferone sind die einzigen von der amerikanischen FDA gegen Hepatitis C, eine Form der Gelbsucht, zugelassenen Medikamente. Das Hepatitis-C-Virus, der Auslöser der Krankheit, ist übrigens nur dank gentechnischer Methoden überhaupt entdeckt worden. Knapp 4 Millionen Amerikaner sollen mit dem Hepatitis-CVirus infiziert sein. Lange Zeit war α-Interferon das einzige Medikament gegen die Krankheit. Allerdings sprachen nur rund 50 % der Patienten auf eine Behandlung an. Von diesen konnten wiederum nur 20 % erfolgreich therapiert werden. Die Ergebnisse mit dem Kunstprodukt Interferon Alfacon-1 sind hier deutlich besser. Interferon Alfacon-1 gehört eindeutig zur Gruppe der α-Interferone, kommt aber in der Natur nicht vor. Es gehört damit zu den gentechnischen Produkten der so genannten zweiten Generation. Die Gentechniker haben sich zunächst die natürlichen α-Interferone genau angesehen. Von diesen existieren in der Natur Biotechnologie und Markt β-Interferon bei Patienten mit Multipler Sklerose die Angriffe auf das Myelin der Nervenstränge mildern kann. etliche Subtypen. Die Aminosäuresequenzen dieser Subtypen variieren an vielen Stellen, doch wird eine bestimmte Aminosäure an einer definierten Stelle der Sequenz jeweils besonders häufig angetroffen. Deshalb haben die Gentechniker die Gensequenzen der unterschiedlichen Interferone so miteinander kombiniert, dass ein Interferon entsteht, dessen Aminosäuresequenz quasi den optimalen Durchschnitt aller natürlichen α-Interferone darstellt. Das Kunstprodukt Alfacon-1 enthält in seiner Sequenz jeweils die Aminosäuren, die bei den natürlichen α-Interferonen am häufigsten anzutreffen sind. Interferon β Interferone waren der Wissenschaft zunächst im Zusammenhang mit viralen Infektionen aufgefallen. Beim α-Interferon sind diese Zusammenhänge schon erwähnt worden. Doch das Wissen um die verschiedenartigen Wirkungen der einzelnen Substanzen, das durch Anwendung gentechnischer Methoden erworben wurde, erschloss plötzlich noch ganz andere Möglichkeiten. Dies gilt besonders im Hinblick auf die Regulation der Immunantwort. Die Aktivität von Immunzellen richtet sich im Falle von so genannten Autoimmunerkrankungen fatalerweise gegen körpereigene Zellen. Dieses Phänomen wurde im Zusammenhang mit dem gegen TNF gerichteten Fusionsprotein Etanercept bereits erwähnt. Im Falle der Multiplen Sklerose wird eine Art Isolierschicht um die Nervenstränge herum, das Myelin, geschädigt. Dadurch wird die normale Reizleitung beeinträchtigt, was mit der Zeit zu schweren motorischen und mentalen Schäden führen kann. Die genaue Ursache der Krankheit ist zwar noch nicht endgültig geklärt, die Beteiligung des Immunsystems allerdings ist nachgewiesen. Das β-Interferon ist ein Botenstoff zwischen Zellen des Immunsystems. Es hat wie auch das α-Interferon eine ganze Reihe von Wirkungen, die erst zum Teil verstanden sind. Erfreulicherweise hat sich gezeigt, dass Allerdings gilt das nur für solche Patienten, die nicht an der chronischen Form der Multiplen Sklerose leiden. Bei der chronischen Form scheint das β-Interferon nicht zu wirken. Doch wird die überwiegende Zahl der Patienten erstmals mit einer Form der Krankheit diagnostiziert, die eine in Schüben auftretende Verlaufsform zeigt. Diesen Patienten kann mit β-Interferon wirksam geholfen werden. Möglicherweise hat das damit zu tun, dass die Krankheitsschübe in Zusammenhang mit viralen Infektionen stehen. Zum einen würde β-Interferon dann als antivirales, zum anderen als immunmodulierendes Medikament wirken. Die Attacken gegen das Myelin, die bei den Patienten in zeitlichen Abständen auftreten, werden durch Gabe von β-Interferon auf jeden Fall seltener. Die resultierenden Schäden an den Nervensträngen fallen weniger schwer aus. Daher ergibt sich für die Patienten eine deutliche Verlangsamung im Fortschreiten der Krankheit, die bei etwa 30 % liegt. Die Zahl der an den verschiedenen Formen der Multiplen Sklerose leidenden Patienten wird allein in den USA auf 250.000 – 300.000 geschätzt, wobei die Krankheit bei Frauen deutlich häufiger auftritt. Wie α-Interferon weist auch β-Interferon als sehr potenter Wirkstoff eine Reihe von Nebenwirkungen auf. Die Patienten, die es sich selbst applizieren können, müssen daher sorgfältig eingewiesen werden. In den USA, wo das Medikament 1993 eingeführt wurde, sind bislang rund 50.000 Patienten behandelt worden. Das β-Interferon gehört zu den gentechnisch gewonnenen Therapeutika, die auch in Deutschland hergestellt werden. Das Interferon-β-1a-Molekül ist 166 Aminosäuren lang und wird in Kulturen von Hamsterzellen (CHO) hergestellt. Interferon γ Bei γ-Interferon handelt es sich um einen Wirkstoff, der sich in seiner Struktur deutlich von den beiden anderen Interferonklassen, α- und β-Interferon, unterscheidet. Die Interferone werden allerdings über die von ihnen ausgeübten antiviralen Wirkungen definiert, 87 Überdurchschnittlich: Der Vergleich unterschiedlicher Sequenzen führt zur Konstruktion eines optimierten Wirkstoffs. Biotechnologie und Markt nicht über die Struktur. Das ist der Grund dafür, dass γ-Interferon trotz der strukturellen Unterschiede zu den anderen Klassen doch auch als ein Interferon bezeichnet wird. Alle Interferone spielen eine wichtige Rolle bei der Immunantwort. Allerdings verfügt nur γ-Interferon über die Fähigkeit, Phagocyten, eine Bakterien fressende Sorte von weißen Blutkörperchen, zu aktivieren. Diese Aktivierung führt in den Phagocyten unter anderem zur Entstehung von Substanzen, die Bakterien effizient abtöten können. Dadurch werden die bakteriellen Eindringlinge nach der Aufnahme durch die Phagocyten vernichtet. Bei einer seltenen Form von erblicher Immunschwäche, der chronischen Granulomatose, ist diese Fähigkeit der Phagocyten in Mitleidenschaft gezogen. Durch Gabe von γ-Interferon (γ-Interferon 1-b) kann hier eine deutliche Verbesserung der Bakterien tötenden Phagocyten-Aktivität erreicht werden. Die Anfälligkeit von Patienten gegenüber schweren Infektionen wird dadurch um mehr als die Hälfte reduziert. Auch verringert eine Applikation von γ-Interferon im Falle einer stationären Behandlung die Tage des erforderlichen Klinikaufenthalts auf rund ein Drittel. Interleukin-2 Das menschliche Immunsystem ist mit erstaunlichen Fähigkeiten ausgestattet. Stoffe, die im Körper nichts zu suchen haben, werden von diesem System mit großer Genauigkeit erkannt und eliminiert. Um dieser Aufgabe gerecht werden zu können, bedarf es einer Vielzahl von Abstimmungsprozessen. Die unterschiedlichen Zelltypen, die am Abwehrgeschehen beteiligt sind, kommunizieren daher sehr intensiv miteinander. Interleukin-2 gehört zu den vielen Botenstoffen, die im Rahmen dieser Kommunikation eine Rolle spielen. Interleukin-2 aktiviert bestimmte weiße Blutkörperchen, darunter die so genannten Killer-T-Zellen. Diese Zellen töten, was zunächst verblüffend sein mag, andere Zellen des Körpers ab. Dabei können sie aber sehr genau zwischen normalen und irgendwie veränderten Zellen unterscheiden. Die Killer-T-Zellen haben eine Art Patrouillen-Funktion im Körper und entfernen Zellen, die nicht der Norm entsprechen. Beispielsweise können sie Zellen erkennen und attackieren, die mit 88 Viren infiziert sind. Aber auch manche Krebszellen weisen Merkmale auf, die sie von normalen Körperzellen unterscheiden. Daher können auch bestimmte Krebszellen von den Killer-T-Zellen angegriffen werden. Das Konzept, die Erkennung von Krebszellen durch das Immunsystem zu verbessern und körpereigene Funktionen zu nutzen, um die Krebszellen zu bekämpfen, ist bestechend. Allerdings hängt dieses Vorgehen entscheidend davon ab, ob und wie gut sich die Krebszellen von normalen Zellen unterscheiden. Dies ist von Krebsart zu Krebsart sehr unterschiedlich und reicht nicht immer aus, um das Immunsystem des Menschen als Waffe zu nutzen. Im Falle von Patienten mit metastasierendem Nierenkrebs konnte aber gezeigt werden, dass Interleukin-2 vorteilhaft eingesetzt werden kann. Bei 15–30 % der Patienten wurde eine Reduzierung des Tumorwachstums oder sogar eine Rückbildung der Tumoren beobachtet. Damit war Interleukin-2 das erste Medikament, das eine therapeutische Wirkung bei Patienten mit metastasierendem Nierenkrebs entfaltet hat. Interleukin-2 wird aus gentechnisch veränderten Bakterien gewonnen. Neben dem direkten Einsatz von Interleukin-2 als Therapeutikum kann es auch verwendet werden, um zuvor isolierte Immunzellen in vitro zu aktivieren. In diesem Zusammenhang spielt es bei Ansätzen der somatischen Gentherapie eine wichtige Rolle. Auf die entsprechenden Anwendungen wird in den Kapiteln 2.8 und 2.10 in dieser Broschüre kurz eingegangen. Interleukin 11 (Oprelvekin) Beim Interleukin-11 handelt es sich der Wirkung nach um einen Wachstumsfaktor, der das Wachstum hämatopoetischer Stammzellen und das Wachstum von Vorläufern der Megakaryonten anregt. Diese spielen eine wichtige Rolle in der Immunabwehr. Ein bedeutendes Einsatzgebiet für Interleukin-11 ist deshalb die Krebstherapie, weil es dort beim Einsatz einer Chemotherapie darauf ankommt, die Immunkompetenz des Patienten möglichst schnell wiederherzustellen. Das ist auch im Zusammenhang mit G-CSF und GM-CSF bereits erwähnt worden. Interleukin-11 wird einer Familie von Wachstumshormonen zugerechnet, in die auch das Biotechnologie und Markt menschliche Wachstumshormon oder der gerade genannte Faktor G-CSF und einige andere gehören. Das native Interleukin-11 besteht aus einer Kette von 178 Aminosäuren, die nicht glykosyliert ist. Daher kann es gentechnisch in Bakterienzellen (Escherichia coli ) hergestellt werden. Dem so produzierten Interleukin-11 fehlt zwar die Aminosäure, mit der es normalerweise beginnt – ein Prolinrest am N-terminalen Ende – das hat aber keinen messbaren Einfluss auf die Aktivität des rekombinanten Produkts. Interleukin-11 wird subkutan verabreicht. Menschliche DNAse (Dornase alpha) Bei der Cystischen Fibrose, auch als Mukoviszidose bezeichnet, haben die Patienten mit der Bildung eines zähen Schleims in den Atmungsorganen zu kämpfen. Dieser Schleim verursacht Atembeschwerden und kann auch zu einer Reihe von anderen Problemen führen. Diese betreffen u.a. die Verdauung sowie die Selbstreinigungsfunktion der Atmungsorgane. Der Schleim muss regelmäßig durch physiotherapeutische Behandlung gelöst werden. Trotz dieser Maßnahmen führt seine konstante Bildung dazu, dass die Patienten häufig von Infektionen betroffen sind. Immunzellen sammeln sich an den Orten der Infektionen, gehen zugrunde und setzen ihre DNA nach außen frei. Dies trägt zusätzlich zu einer Verdickung des Schleims bei. Die Wahrscheinlichkeit für das Auftreten der Cystischen Fibrose beträgt bei uns etwa 1:2.500. Sie gehört damit zu den häufiger auftretenden Erkrankungen. Das Patientenkollektiv in den USA und Westeuropa wird auf rund 50.000 Menschen geschätzt. Technisch kann man die Cystische Fibrose als monogen vererbte, autosomal rezessive Erkrankung beschreiben. Das bedeutet, dass nur ein Gen an ihrer Entstehung beteiligt ist, dass dieses Gen nicht auf einem Geschlechtschromosom liegt, sondern auf einem anderen (wie man heute weiß liegt es auf Chromosom Nr. 7), und dass, sowohl die mütterliche wie auch die väterliche Ausfertigung des Gens defekt sein müssen, damit die Krankheit in Erscheinung tritt. Die oben benutzte Aussage „ein Gen“ ist also etwas ungenau. Denn in unseren Körperzellen haben wir ja von jedem Chromosom und den darauf beheimateten Genen zwei Ausfertigungen, eins von der Mutter und eins vom Vater. Die Besonderheit bei den Geschlechtschromosomen wollen wir an dieser Stelle nicht berücksichtigen. Letztere Eigenschaft bedingt, dass es eine ganze Reihe von Menschen gibt, die keine Anzeichen der Krankheit aufweisen, trotzdem aber eine defekte Ausfertigung des für die Cystische Fibrose wichtigen Gens in sich tragen. Nur eine Ausfertigung des Gens ist intakt. Dieser Status findet sich bei uns sogar sehr häufig, mit einer Frequenz von rund 1:25. Das Gen, dessen Defekt zum Auftreten der Krankheit führt, konnte im Jahr 1994 kloniert werden. Es wird als CFTR-Gen bezeichnet (eine Abkürzung für das auch im Englischen sehr unhandliche „Cystic fibrosis transmembrane conductance regulator“). Damit bietet sich die Cystische Fibrose als Ziel für eine Somatische Gentherapie an. Erste Versuche wurden bereits durchgeführt – leider bislang ohne den gewünschten Erfolg. Auch hier gilt, dass eine Anwendung der Somatischen Gentherapie noch einige Zeit auf sich warten lassen wird. Doch nun endlich zur DNAse. Bei diesem seit 1993 erhältlichen, gentechnisch hergestellten Therapeutikum handelt es sich um ein menschliches Enzym, das DNA abbauen kann. Etwas genauer gesagt handelt es sich um das Enzym DNAse 1, das für die therapeutische Anwendung durch Kultur von gentechnisch veränderten Hamsterzellen (CHO) gewonnen wird. Eine Applikation der DNAse 1 führt zu einem weitgehenden Abbau der DNA innerhalb des Schleims, der die Patienten belastet. Dadurch wird der Schleim dünnflüssiger und kann besser abgehustet werden. Auch geht die Zahl der Infektionen und der dadurch verursachten Klinikaufenthalte um rund ein Drittel zurück. Die DNAse 1 wurde 1994 als Medikament in den Markt eingeführt und war seit sehr langer Zeit erstmals wieder ein Medikament, das bei Cystischer Fibrose eine therapeutische Bedeutung gewonnen hat. Durch Gabe von DNAse 1 kann die etablierte Behandlung unterstützt und die Situation der Patienten deutlich verbessert werden. Wachstumshormon Das Wachstumshormon ist gemeinsam mit anderen Hormonen für die Regulierung des Längenwachstums zuständig. Die Menge des von der Hirnanhangdrüse, 89 Biotechnologie und Markt der Hypophyse, produzierten Wachstumshormons korreliert ziemlich gut mit dem messbaren Wachstum. Wird kein oder nur sehr wenig Wachstumshormon gebildet, dann kommt es zu Zwergwuchs und teilweise schweren physiologischen Komplikationen. Wird dagegen eine Menge gebildet, die nur etwas unter den normalen Werten liegt, dann bleibt das Wachstum auch nur geringfügig hinter dem zurück, was wir als normal ansehen. Vor der Einführung gentechnischer Methoden wurde das Wachstumshormon aus der Hypophyse menschlicher Leichname gewonnen. Die solcherart zur Verfügung stehenden Mengen waren aber nur sehr gering. Sie genügten kaum, um die Fälle des schweren Zwergwuchses zu therapieren. Darüber hinaus birgt die Isolierung von Proteinen aus menschlichem Gewebe oder Blut immer ein gewisses Risiko für Kontaminationen mit Krankheitserregern. Tatsächlich traten Mitte der 80er Jahre bei dem aus Leichnamen gewonnenen Wachstumshormon große Probleme auf. Die an sich sehr seltene, durch ihre Verwandtschaft mit dem Rinderwahnsinn BSE aber stark ins öffentliche Bewusstsein gerückte CreutzfeldJacob-Krankheit wurde offenbar durch bestimmte Präparate des Wachstumshormons übertragen. Der Verkauf von Wachstumshormon aus Leichnamen wurde daraufhin in den USA verboten. Ein von gentechnisch veränderten Bakterien hergestelltes Produkt konnte bereits wenige Monate später die Lücke schließen. Die vieljährige Entwicklungsarbeit wurde hier also zufällig gerade zum richtigen Zeitpunkt beendet. Durch die Anwendung gentechnischer Methoden steht das menschliche Wachstumshormon heute als sicheres Medikament in ausreichender Menge zur Verfügung. Am Beispiel des menschlichen Wachstumshormons lässt sich zeigen, dass mit der neuen Verfügbarkeit von Medikamenten auch neue Problemstellungen auftreten können. Die Tatsache, dass mit dem gentechnisch hergestellten Produkt ein sicheres Medikament für die schweren Fälle des Zwergwuchses zur Verfügung steht, ist uneingeschränkt zu begrüßen. Allerdings eröffnen sich durch die Verfügbarkeit des Wachstumshormons nun auch Möglichkeiten für eine Behandlung von Kindern, die in ihrem Wachstum lediglich hinter 90 der Norm zurückbleiben. In diesen Fällen kann man nicht von einer Krankheit sprechen. Wie soll in diesen Fällen verfahren werden? Eine Behandlung wäre dann ja aus medizinischer Sicht nicht erforderlich, sondern würde lediglich mit Blick auf das soziale Umfeld und eine angenommene Benachteiligung kleiner Menschen in der Gesellschaft vorgenommen. Die Verabreichung des Medikaments ist heute an strenge medizinische Indikationen geknüpft. Kritiker warfen aber dem Produzenten des gentechnisch hergestellten Wachstumshormons vor, eine aggressive Vermarktungspolitik zu betreiben. Durch die Verfügbarkeit des Medikaments sahen sich manche Eltern aufgefordert, ihre Kinder auch in medizinisch nicht indizierten Fällen behandeln zu lassen, um ihnen mögliche Nachteile zu ersparen. Die Human Growth Foundation, eine gemeinnützige Stiftung in den USA, führte beispielsweise Belege dafür an, dass geringe Körpergröße zu sozialen Problemen für die betroffenen Kinder führen kann. Die Frage, wann eine Behandlung mit Wachstumshormon gerechtfertigt ist, stand im Raum. In der Auseinandersetzung wurde gegen die Herstellerfirma ein Verfahren angestrengt, da sie beim Hinweis auf ihr Produkt nach Meinung der Kläger Vorschriften verletzt haben soll. Das Verfahren ist in den USA mittlerweile außergerichtlich beigelegt worden. Der Hersteller hat einen Betrag von 50 Millionen US-$ bezahlt. Die Blutgerinnung Das menschliche Blut stellt aus medizinischer und pharmazeutischer Sicht eine recht gut zugängliche und in großen Mengen verfügbare Ressource dar. Es kann dem Körper in einem limitierten Umfang entzogen werden und wird von ihm dann nachgebildet. Für analytische Untersuchungen steht es quasi im Überfluss zur Verfügung und kann sogar als Quelle für die Herstellung von Medikamenten genutzt werden. Nicht zuletzt dieser leichten Zugänglichkeit ist es zu verdanken, dass die verschiedenen Bestandteile des Bluts schon früh untersucht werden konnten. Blut ist eine Flüssigkeit, die aus zellulären Bestandteilen und aus löslichen Anteilen, dem Blutplasma, besteht. Vom Herzen wird es im Körper umgepumpt und erreicht durch die fein verästelten Blutkapillaren praktisch jede Zelle. Wird der Körper verletzt, tritt Blut Biotechnologie und Markt aus den beschädigten Kapillaren aus. Es leuchtet ein, dass im Lauf der Evolution ein Weg gefunden werden musste, der den Verlust dieses „Lebenssaftes“ in diesem Fall dann auf ein Minimum beschränkt. Hier kommen wir zur Blutgerinnung. Bei der Blutgerinnung sind zwei Punkte besonders wichtig. Zum einen muss die Reaktion schnell ablaufen, um eine Wunde rasch zu verschließen und den Körper vor einem hohen Blutverlust zu bewahren. Zum anderen muss die Reaktion lokal eng begrenzt bleiben, um ein Verstopfen intakter Blutgefäße zu verhindern. Die fatalen Folgen einer derartigen Verstopfung kennt man ja, nicht zuletzt vom Herzanfall. spaltet dann die vernetzten Fibrinmoleküle und führt damit zur Auflösung der Blutgerinnsel. Auch therapeutisch ist das von großem Interesse, da durch Gabe von Gewebe-Plasminogen-Aktivator Blutgerinnsel, die z.B. für einen Herzinfarkt verantwortlich sein können, schnell aufgelöst werden. Die folgende Abbildung zeigt die wesentlichsten Faktoren, die an der Blutgerinnung beteiligt sind. Mittels biotechnischer Methoden können diese Faktoren heute in praktisch beliebiger Menge hergestellt und therapeutisch eingesetzt werden. Die Blutgerinnung ist ein komplizierter Kaskadenmechanismus. Sie hängt ab vom Zusammenspiel vieler „Blutgerinnungsfaktoren“, von denen der Faktor VIII am bekanntesten ist. Mit Blick auf die erforderliche Geschwindigkeit kann der Körper nicht erst dann mit der Bildung von Blutgerinnungsfaktoren beginnen, wenn eine Wunde entstanden ist. Vielmehr hält er die zur Gerinnung erforderlichen Komponenten im Blut jederzeit vor. Die meisten Komponenten zirkulieren allerdings in einer inaktiven, so genannten Vorläuferform. Die Blutgerinnung ist dann das Resultat eines Kaskadenprozesses, in dessen Verlauf immer mehr aktive Komponenten aus diesen inaktiven Vorläufern gebildet werden. Ausgelöst und aufrechterhalten wird dieser Kaskadenprozess durch Signale, die nur lokal als Antwort auf bestimmte Reize gegeben werden. Auch unphysiologische Reize führen zur Blutgerinnung. Es ist ja bekannt, dass entnommenes Blut in einem Glasgefäß rasch gerinnt. Einen physiologischen Reiz stellt z.B. die Verletzung von Blutgefäßen dar. An der verletzten Stelle setzen die betroffenen Zellen Stoffe frei, die frühe Proteine der Blutgerinnung aktivieren. Diese aktivieren ihrerseits nachgeschaltete Proteine der Kaskade und so weiter. Da jedes aktivierte Protein mit zahlreichen Proteinen der jeweils folgenden Stufe interagiert, wird das Signal auf jeder dieser Stufen verstärkt. Am Ende der Kaskade steht die Aktivierung von Fibrinogen, das als Fibrin dann stark vernetzte Strukturen bildet und letztlich zur Gerinnung des Blutes führt. Die Blutgerinnsel müssen dann, wenn sich die Blutgefäße regeneriert haben, auch wieder aufgelöst werden. Hier spielt der Gewebe-Plasminogen-Aktivator eine wichtige Rolle, der die aktive Protease Plasmin aus der Vorläuferform Plasminogen freisetzt. Plasmin Faktor VIIa Die Blutgerinnung ist wie oben dargestellt ein komplexer Vorgang, bei dem viele Faktoren ineinander greifen. Um zwischen den aktiven und inaktiven Formen der Faktoren unterscheiden zu können, hängt man der Bezeichnung des Faktors ein kleines a an, falls es um die aktivierte Form einer inaktiven Vorstufe geht. Bei Faktor VIIa handelt es sich also um die bereits aktivierte Form des Proteins, die im Körper sonst erst durch Einwirkung von Gewebethromboplastin auf den inaktiven Vorläufer Faktor VII gebildet wird. Faktor VIIa spielt eine wichtige Rolle im sogenannten extrinsischen Aktivierungssystem der Blutgerinnung. Der aktive Faktor VIIa verbindet sich mit weiteren Komponenten zum Komplex „Prothrombinaktivator“, durch des- 91 Biotechnologie und Markt sen Wirkung aktives Thrombin aus dem Vorläufer Prothrombin gebildet wird. Die wichtigsten Reaktionen bei der Blutgerinnung sind in der Abbildung dargestellt. Die therapeutische Bedeutung von Faktor VIIa liegt darin, dass er in Sonderfällen einer Behandlung der recht häufig vorkommenden Bluterkrankheiten Hämophilie A bzw. B eingesetzt werden kann. Diese sind durch den Ausfall der Faktoren XIII bzw. IX gekennzeichnet, die im intrinsischen Aktivierungssystem der Blutgerinnung eine zentrale Rolle spielen und nachfolgend noch vorgestellt werden. Die Krankheiten werden durch Gabe dieser Proteine behandelt. Nach Firmenangaben aus dem Frühjahr 1999 werden weltweit etwa 50.000 Patienten mit den Faktoren VIII und IX versorgt. Knapp 10 % dieser Kranken entwickeln im Lauf der Behandlung aber Antikörper gegen die therapeutischen Proteine und sprechen auf eine Behandlung nicht mehr an. Für diese Gruppe von Patienten stellt die Gabe von Faktor VIIa einen lebensrettenden Ausweg dar. Faktor VIIa aktiviert wie geschildert die extrinsische Kaskade und induziert die Blutgerinnung daher unabhängig von den Faktoren VIII und IX. Weltweit gibt es rund 3.500 Patienten, die auf Faktor VIIa angewiesen sind. Faktor VIII Eine Bluterkrankheit, eine Hämophilie, kann durch den Ausfall verschiedener Faktoren verursacht werden. Das bekannteste Beispiel für einen Fehler in der Blutgerinnung ist die so genannte Hämophilie A, die durch einen Mangel an Faktor VIII bedingt wird. Diese Form der Bluterkrankheit ist nicht zuletzt deswegen sehr bekannt geworden, weil sie auch in einigen Adelshäusern vorgekommen ist. Der Aufstieg Rasputins am russischen Zarenhof zu Beginn dieses Jahrhunderts hat z.B. ganz wesentlich damit zu tun, dass er den an der Bluterkrankheit leidenden Thronfolger Alexei – der ein Urenkel der Königin Victoria von England war – mit allerlei seltsamen Methoden zu heilen versprach. Die Krankheit Hämophilie A kann vererbt werden. Sie tritt fast ausschließlich bei Männern in Erscheinung; ihre Häufigkeit liegt bei etwa 1:10.000. Allein in den USA waren Anfang 2000 rund 20.000 Patienten betroffen. Die betroffenen Patienten haben sich in der „World 92 federation of hemophilia“ international organisiert. An den jährlichen Kongressen nehmen mehrere Tausend Delegierte aus vielen unterschiedlichen Ländern teil. Beim Faktor VIII handelt es sich um ein sehr großes Protein von 2.331 Aminosäuren Länge. Die im menschlichen Blut vorhandenen Mengen an Faktor VIII sind zwar gering, reichen aber für die Herstellung therapeutischer Mengen aus. Daher können Faktor-VIII-Präparate durch Aufreinigung aus menschlichem Blutplasma gewonnen werden. Problematisch ist bei diesem Vorgehen allerdings, dass Blut von sehr vielen unterschiedlichen Spendern gesammelt und aufgearbeitet werden muss, um auch nur einen einzigen Patienten behandeln zu können. Dadurch ergibt sich die Gefahr einer Verunreinigung mit Viren. Die Möglichkeiten zur Inaktivierung von Viren sowie die Methoden zu ihrer Detektion sind zwar auf einem sehr hohen Stand. Noch zu Beginn der 80er Jahre hat sich aber eine große Zahl von Blutern mit dem Aids-Virus aus kontaminierten Präparaten infiziert. Biotechnische Verfahren bieten für die Patienten ein Höchstmaß an Sicherheit, wenn es um den Ausschluss von Kontaminationen durch menschliche Viren geht. Die Möglichkeit, auf menschliches Blut als Quelle für die Blutfaktoren verzichten zu können, ist unter Gesichtspunkten der Arzneimittel-Sicherheit ideal. Zudem wird menschliches Blut als Ressource geschont. Gentechnisch hergestellte Faktor VIII Präparate werden von unterschiedlichen Herstellern angeboten und sind seit vielen Jahren auf dem Markt. Faktor IX Während bei der Hämophilie A ein Mangel an Faktor VIII vorliegt und deswegen die Bildung von Fibrin nicht zustande kommt, liegt der Hämophilie B ein Mangel in dem Protein Faktor IX zugrunde. Die Faktoren VIII und IX arbeiten zusammen, um in der komplexen Kaskade der Blutgerinnung den Faktor X zu aktivieren. Die auf dem Ausfall von Faktor VIII beruhende Krankheit Hämophilie A ist sehr viel häufiger anzutreffen als die auf einem Defekt des Faktors IX beruhende Hämophilie B. Von der Hämophilie B ist eines von 25.000 –30.000 männlichen Neugeborenen betroffen. Von einer schweren Ausprägung der Krankheit spricht man, Biotechnologie und Markt wenn nur noch weniger als 1% der normalen Aktivität des Proteins bei den Patienten vorhanden ist. Das Protein Faktor IX besteht aus einer Kette von 415 Aminosäuren, die noch mit Zuckerresten verknüpft, also glykosyliert, ist. Deshalb wird das Protein gentechnisch aus Kulturen von Hamsterzellen (CHO-Zellen) gewonnen. Wie schon beim Faktor VIII sorgt die gentechnische Herstellung auch hier dafür, dass eine Verunreinigung mit menschenpathogenen Viren so gut wie ausgeschlossen ist. Das biotechnisch hergestellte Medikament ist seit 1997 auf dem Markt. Gewebe-Plasminogen-Aktivator (t-PA) Der Gewebe-Plasminogen-Aktivator ist ein körpereigenes Protein, das quasi am anderen Ende der Blutgerinnung, bei der Auflösung von Blutgerinnseln, eine wichtige Rolle spielt. Die Gerinnung muss ja äußerst sorgfältig kontrolliert und lokal begrenzt werden. Wie eingangs erwähnt, können sich kleine Blutgerinnsel aufgrund einer ganzen Reihe von Faktoren bilden. Gelegentlich werden sie vom Ort ihrer Entstehung weg in den Blutstrom gespült und verstopfen feinere Blutkapillaren. Dadurch kann die Versorgung wichtiger Organbereiche mit Blut und damit Sauerstoff unterbunden sein. Die fatalen Folgen sind Herzinfarkt, Lungenembolie oder Hirnschlag. In den industrialisierten Ländern führen Herz-Kreislauf-Erkrankungen die Todesstatistiken an. Fast jeder kennt in seinem eigenen Umfeld entsprechende Fälle. Im Fall einer Herzattacke kommt es ganz entscheidend auf die Länge der Zeit an, in der die betroffenen Herzmuskelbereiche nicht mit Sauerstoff versorgt werden. Die zur Verstopfung führenden Gerinnsel müssen also schnellstmöglich aufgelöst werden. Hier bietet sich mit dem Gewebe-Plasminogen-Aktivator (t-PA, vom englischen tissue plasminogen activator) ein Protein an, das vom Körper selbst im Lauf der Evolution auf diese Aufgabe hin optimiert worden ist. Die Aufgabe von t-PA besteht darin, aus einem Vorläufer das Plasmin zu aktivieren. Plasmin wiederum spaltet das bei der Blutgerinnung entstehende Fibrin in lösliche Produkte und löst dadurch Blutgerinnsel auf. Der Wirkstoff t-PA ist seit 1987 auf dem Markt. In klinischen Studien konnte man zeigen, dass t-PA Vor- teile gegenüber anderen Medikamenten besitzt, die prinzipiell die gleiche Wirkung haben. Es hat sich deshalb am Markt durchgesetzt. Durch Anwendung gentechnischer Methoden ist t-PA erstmals für therapeutische Zwecke verfügbar geworden. Das Medikament wird auch in Deutschland hergestellt. Medikamente stellen auch bedeutende wirtschaftliche Faktoren dar. Als das von der Firma Genentech in den USA hergestellte Medikament die Zulassung von der amerikanischen Zulassungsbehörde FDA erhielt, wurde der Flughafen von San Francisco kurzzeitig gesperrt, damit die dort in der Nähe angesiedelte Firma ein Feuerwerk abbrennen konnte. Man freute sich auf die erwarteten Einnahmen. Das Medikament geriet wegen seines hohen Preises aber schnell unter Beschuss. Kritiker wiesen darauf hin, dass die Kosten für das Medikament rund 10-mal höher waren als für die bislang eingesetzten Therapeutika. Eine positivere Wirkung sei dagegen kaum nachzuweisen. Der letztere Vorwurf konnte durch umfangreiche Studien, die lange und kontrovers diskutiert worden sind, entkräftet werden. Die Preisgestaltung für neue Medikamente, die in den hohen Forschungskosten eine Rechtfertigung finden kann, wird dagegen sicher ein Diskussionspunkt bleiben. Heute ist auch ein gentechnisch hergestelltes t-PA der zweiten Generation auf dem Markt, bei dem bestimmte Proteinanteile fehlen, so dass die Wirkprofile dieses Medikaments anders sind. Dieses t-PA wurde von einer deutschen Firma entwickelt, musste nach einem der zahlreichen Firmenzusammenschlüsse im Pharmabereich aber aus kartellrechtlichen Gründen verkauft werden. Der Kaufpreis betrug viele hundert Millionen US-$. Hirudin Der Einsatz von Blutegeln hat in der Medizin eine lange Tradition. Man hoffte, mit dem Blut würden die Egel auch die krank machenden Agenzien aus dem Körper eines Patienten ziehen. Die moderne Wissenschaft wurde davon fasziniert, dass es den Blutegeln irgendwie gelingen muß, das Blut ihrer „Opfer“ flüssig zu halten. Denn eigentlich müsste das Blut an der verletzten Hautstelle rasch gerinnen. 93 Biotechnologie und Markt Blutegel haben in der Medizin eine lange Tradition. Die Blutgerinnung wird dadurch verhindert, dass der Blutegel einen Inhibitor der Protease Thrombin produziert und in das Blut abgibt. Bei der Blutgerinnung spielt Thrombin eine zentrale Rolle, indem es aus dem inaktiven Fibrinogen die aktiven Fibrin-Monomere bildet, die dann zu fädigen Strukturen reagieren (siehe Abbildung S. 91). Der vom Blutegel gebildete Inhibitor mit Namen Hirudin verhindert das. Das Hirudin kann deshalb dort eingesetzt werden, wo es gilt, Blutgerinnsel zu verhindern oder aufzulösen. Es wird vor allem bei Patienten angewendet, die auf Heparin, ein anderes Medikament zur Bekämpfung von Blutgerinnseln, negativ reagieren. Hirudin ist ein einzelsträngiges Protein aus 65 Aminosäuren. Das Gen für Hirudin wurde aus dem Blutegel Hirudo medicinalis isoliert und in Hefe kloniert. Das in Hefe hergestellte rekombinante Produkt ist gegenüber dem natürlichen Hirudin leicht verändert, zeigt aber die gleiche Wirkcharakteristik. Monoklonale Antikörper Die Herstellung Monoklonaler Antikörper stellte einen Meilenstein in der Immunologie und Zellbiologie dar. Wenn der menschliche Körper mit einem fremden Agens konfrontiert wird, beispielsweise einem Bakterium, produzieren spezialisierte Zellen des Immunsystems gegen dieses Bakterium Abwehrstoffe, die Antikörper. Ein Bakterium, das eine solche Immunantwort provozieren kann, bezeichnet man dann als immunogen. Als Antwort auf das Eindringen eines Bakteriums werden nun viele unterschiedliche Immunzellen zum 94 Wachstum angeregt, die unterschiedliche Antikörper produzieren. Diese unterschiedlichen Antikörper greifen an verschiedenen Stellen der Bakterienzelle an. Die resultierende Mischung von Antikörpern, die als Reaktion auf ein immunogenes Agens gebildet werden, nenn man polyklonal. Polyklonal deshalb, weil die Antikörper von verschiedenen Zellvarianten gebildet werden. Mit solchen polyklonalen Antikörpern kann man schon eine ganze Menge anstellen. Nicht zuletzt beruht der passive Impfschutz darauf, dass solche polyklonalen Antikörper in Tieren erzeugt und den Patienten verabreicht werden. Für die Forschung haben sie allerdings den Nachteil, dass man nicht genau entscheiden kann, wo die einzelnen Antikörper nun genau angreifen und welche Interaktionen sie genau mit ihrem Zielmolekül eingehen. Von Milstein und Köhler, die für ihre Forschungen mit dem Nobelpreis ausgezeichnet worden sind, wurde nun ein Weg gefunden, um ganz gezielt nur eine Sorte von Antikörpern zu produzieren. Das funktioniert nicht mehr allein in vivo, also im Körper eines Versuchstieres, sondern auch in vitro, im Reagenzglas. Der entscheidende Trick besteht darin, die anfälligen Immunzellen robuster zu machen, so dass sie auch in Kultur überleben. Milstein und Köhler schafften das durch Fusion der Immunzellen mit Tumorzellen, die sich ja bekanntlich durch ungehemmtes Wachstum auszeichnen. Eine solche Hybridomazelle vereint die Fähigkeit, einen ganz Biotechnologie und Markt speziellen Antikörper zu produzieren mit der Fähigkeit, gut in Kultur zu wachsen. Zunächst werden dabei Immunzellen unterschiedlicher Spezifität in einem Versuchstier, meist der Maus, erzeugt. Diese Zellen werden dann isoliert und mit Tumorzellen fusioniert. Anschließend wird aus der Mischung der Hybridomazellen diejenige herausgesucht, die den gewünschten Antikörper produziert. Das geht relativ einfach, indem man das Zielmolekül, das man in aller Regel gut kennt, quasi als Angelhaken benutzt. Hat man die interessierende Zelle vereinzelt, dann produzieren alle aus ihr später durch Teilung hervorgehenden Zellen nur noch denselben, ganz spezifischen Antikörper. Diesen bezeichnet man dann als monoklonal. Auf die vielfältigen Anwendungen von MAK in Forschung und Diagnostik, aber auch in technischen Reinigungsverfahren, kann hier nur hingewiesen werden. Die Hoffnungen auf einen Einsatz als hochspezifische Therapeutika, die als „magic bullets“ zielgenau und nebenwirkungsarm ihre Arbeit verrichten, zerschlugen sich aber zunächst. Denn monoklonale Maus-Antikörper sind für den humantherapeutischen Einsatz schlecht geeignet. Ihre Fremdartigkeit veranlasst nun wieder das menschliche Immunsystem zur Bildung von Antikörpern, so dass die gewünschte Wirkung unterdrückt wird und es zu anaphylaktischen Reaktionen kommen kann. Um diese Nachteile zu vermeiden, werden mit gentechnischen Methoden große Bereiche der Maus-Antikörper, die so genannten konstanten Regionen, durch entsprechende Fragmente humaner Antikörper ausgetauscht. Die konstanten Regionen spielen für die Spezifität der Antikörper praktisch keine Rolle. Je nach Gehalt an menschlichen Aminosäuresequenzen spricht man dann von chimärisierten oder humanisierten Antikörpern. den Regionen komplett denen des ursprünglichen Maus-Antikörpers. Das verbessert die Bindung, kann aber wieder in stärkerem Maß zu Problemen mit Abstoßungsreaktionen führen. Eine weitere Entwicklung zielt deshalb darauf, die Antikörper vollständig zu humanisieren. Dazu hat man transgene Mäuse erzeugt, in deren Genom der gesamte Bereich, der zur Bildung von Antikörpern erforderlich ist, vom Menschen stammt. Werden diese Mäuse immunisiert, dann erzeugen sie „menschliche“ Antikörper. Ob diese dann tatsächlich die erwarteten Vorteile haben, müssen die bereits laufenden und zukünftigen klinischen Versuche zeigen. Auch andere intelligente Ansätze zur Herstellung großer Bibliotheken menschlicher Antikörper werden heute verfolgt. Beispielsweise kann man durch Klonierung der entsprechenden menschlichen Gene sehr große Bibliotheken von diversen Antikörperfragment-Genen in Phagen oder Bakterien erzeugen, die das Antikörperfragment dann auf ihrer Oberfläche exprimieren. Antikörperfragmente, die spezifisch an ein spezielles bekanntes Zielmolekül binden, findet man nun einfach, indem man das Zielmolekül an einer festen Grundlage fixiert und die ganze „Klon-Bibliothek“ dazugibt. Phagen bzw. Zellen, die das passende Antikörperfragment an ihrer Außenseite tragen, binden sich an das Zielmolekül, während der Rest der Klone abgespült werden kann. Auf der Matrix bleiben also nur die Phagen bzw. Bakterien zurück, deren Erbgut die Information für das gesuchte Antikörperfragment enthält. Dieses lässt sich dann beliebig vermehren. Die Grafik veranschaulicht den Unterschied zwischen humanisierten und chimären Antikörpern. Molekulare Chimäre: Bei Monoklonalen Antikörpern für die Therapie stammt nur noch der Antigen-bindende Bereiche von Mausantikörpern, der größte Teil stammt vom Menschen. Bei humanisierten Antikörpern stammen nur noch die kleinen, antigenbindenden Regionen (complementarity dertermining regions, CDR) von den Maus-Antikörpern; der gesamt Rest entspricht einem humanen Antikörper-Protein. Allerdings muss man bei diesem Vorgehen häufig einen Qualitätsverlust hinsichtlich der Bindung des Antikörpers an sein Zielmolekül hinnehmen. Bei den so genannten chimärisierten Antikörpern werden deshalb größere Regionen des Maus-Antikörpers eingebaut. Damit entsprechen die antigenbinden- 95 Biotechnologie und Markt Abciximab Beim Abciximab handelt es sich um einen chimären Antikörper, der nur noch aus seinen leichten Ketten besteht, dem so genannten Fab-Fragment. Abciximab ist gegen einen Rezeptor auf der Oberfläche von Platelet Zellen gerichtet. Dieser Rezeptor, auch als IIb/IIIaRezeptor bezeichnet, wird einer bestimmten Familie von Rezeptoren zugerechnet, den so genannten Integrinen. Er bindet glykosylierte Proteine wie Fibrinogen oder den von-Willebrand-Faktor und trägt damit wesentlich zur Aggregation, also zur Zusammenballung, von Platelet-Zellen bei. Platelet-Zellen erkennen beispielsweise geschädigte Gefäßwände, lagern sich als schützende Schicht auf der Gefäßwand ab und initiieren die Ausbildung von Blutgerinnseln. Da z.B. auch bei der Angioplastie, also der Aufweitung von Blutgefäßen mit Ballonkathetern, und anderen chirurgischen Eingriffen eine Schädigung der Gefäßwände in Kauf genommen werden muss, kommt es nach derartigen Eingriffen häufig wieder zu einer erneuten Verengung der Gefäße. Zu der neuerlichen Verengung trägt nicht zuletzt ein Einwandern von glatten Muskelzellen bei, das als Reaktion auf eine Schädigung von Gefäßwänden zu beobachten ist. Abciximab bindet mit etwa gleicher Affinität den IIb/IIIa-Rezeptor und noch einen zweiten, der ebenfalls zu den Integrinen gezählt wird, den so genannten Vitronectin-Rezeptor. Dieser Rezeptor moduliert die Eigenschaften von Platelet-, aber auch von vaskulären Endothel- und von glatten Muskelzellen. Wegen dieser Eigenschaft kann Abciximab im Zusammenhang mit chirurgischen Eingriffen vorteilhaft eingesetzt werden, um der neuerlichen Verengung der Blutgefäße vorzubeugen. Abciximab blockiert die beschriebenen Rezeptoren und unterbindet damit ein Anspringen der natürlichen Aktivierungskaskade. Abciximab ist seit 1994 in den USA und Europa zugelassen. Basiliximab Bei Basiliximab handelt es sich um ein Therapeutikum, das in seiner Wirkung dem nachfolgend beschriebenen Daclizumab sehr ähnlich ist. Während Daclizumab aber ein humanisierter Monoklonaler Antikörper ist, stellt Basiliximab einen chimären Monoklonalen Antikörper dar. Beide sind gegen den Interleukin-2-Rezeptor auf der Oberfläche von aktivierten T-Lymphozyten 96 gerichtet und helfen, die Abstoßung transplantierter Nieren zu verhindern. Die Verabreichung der beiden Medikamente erfolgt in unterschiedlichen Zeitintervallen und Dosen. Die Feststellung, dass die Humanisierung von Antikörpern einen Verlust an Bindungsaffinität zur Folge haben kann, wird beim Vergleich von Basiliximab und Daclizumab bestätigt. Der humanisierte Antikörper weist gegenüber dem Rezeptor eine geringere Bindungsstärke auf und wird daher häufiger und über einen längeren Zeitraum dosiert als der chimäre Antikörper. Für die klinischen Resultate ist das aber nach den vorliegenden Ergebnissen nicht von Bedeutung. Daclizumab Daclizumab ist ein humanisierter Monoklonaler Antikörper, der zur Vorbeugung gegen die Organabstoßung bei Nierentransplantationen eingesetzt wird. Daclizumab wird hierzu nicht allein, sondern in Kombination mit anderen Immunsuppressiva wie Cyclosporin und Corticosteroiden verabreicht. Klinische Studien haben gezeigt, dass eine solche Kombination Vorteile für die Patienten bringt. Daclizumab ist gegen einen hochaffinen Rezeptor für das Immunstimulanz Interleukin-2 auf den Oberflächen von Immunzellen gerichtet. In Gegenwart von Daclizumab wird daher die stimulierende Wirkung von IL-2 auf Lymphozyten verringert und damit das Risiko einer Organabstoßung gesenkt. Bei Daclizumab handelt es sich wissenschaftlich etwas genauer gesagt um einen humanisierten IgG1Monoklonalen-Antikörper, der gegen die alpha-Untereinheit des hochaffinen IL-2-Rezeptors gerichtet ist. Diese Untereinheit wird im wissenschaftlichen Jargon auch p55 alpha, CD25 oder Tac genannt. Der Antikörper ist zu rund 90 % menschlich und entspricht nur zu rund 10 % variablen Maus-Sequenzen. Die Größe des Antikörpers liegt bei rund 144 kD. Der hochaffine IL-2 Rezeptor, der von dem Antikörper blockiert wird, wird nur von aktivierten Lymphozyten, nicht von ruhenden Zellen exprimiert. Infliximab Bei Infliximab handelt es sich um einen chimären Monoklonalen Antikörper, der den konstanten Anteil eines menschlichen IgG1-kappa-Antikörpers und den variablen Anteil eines Maus-Antikörpers enthält. Biotechnologie und Markt Letzterer ist gegen den Tumor-Nekrose-Faktor alpha (TNF-α) gerichtet. Dadurch wird die Wirkung von TNFα inhibiert. Dagegen wird TNF-β nicht beeinflusst, obwohl dieses an denselben Rezeptor bindet wie TNF-α. F-Protein des Virus gerichtet. Die Blockade dieses Proteins durch den Antikörper hemmt das Fortschreiten der viralen Infektion. Palivizumab war der erste Monoklonale Antikörper, der zur Behandlung einer Infektionskrankheit zugelassen wurde. Das Haupteinsatzgebiet für Infliximab ist die so genannte Crohn’s Disease, eine entzündliche Erkrankung, die hauptsächlich im unteren Dünndarmbereich (Ileum) auftritt, allerdings auch andere Teile des Verdauungstraktes betreffen kann. Die Entzündung kann Schmerzen und Diarrhöe hervorrufen. Von der Crohn´s Disease sollen allein in den USA rund 250.000 Patienten betroffen sein. Infliximab ist das erste Medikament, das speziell für die Behandlung der Crohn´s Disease zugelassen wurde. Es moduliert die Wirkung von TNF-α, das entzündliche Reaktionen verstärken kann. Die Wirkung von Infliximab ähnelt also der des im Produktteil ebenfalls beschriebenen Etanercept, das allerdings in einer anderen Indikation eingesetzt wird. Trastuzumab Infliximab wird mit einer gentechnisch veränderten Zelllinie hergestellt. Es ist ein großes Molekül von rund 149 kD Größe, das intravenös verabreicht werden muss. Palivizumab Besonders bei Frühgeburten, Säuglingen und Kleinkindern spielen Infektionen mit dem RSV (Respiratory Syncytial Virus) ein Rolle. Diese Infektionen betreffen die Atemwege von der Nase bis zur Lunge. Ab einem Alter von drei Jahren zeigen die Erkrankten meist nur die Symptome einer typischen Erkältung. Bei Jüngeren können aber auch schwere Effekte bis hin zu einem Versagen der Atemwege auftreten. Weltweit sind mehr als hunderttausend Einweisungen ins Krankenhaus auf Infektionen mit RSV zurückzuführen und pro Jahr sterben viele Tausend Kinder an den Symptomen. Das Virus kann durch Tröpfcheninfektion übertragen werden und verbreitet sich häufig sehr schnell. Bei Palivizumab handelt es sich um einen humanisierten Monoklonalen Antikörper, der zu rund 95 % aus menschlichen und zu rund 5 % aus Maus-Sequenzen besteht. Der Antikörper ist gegen ein virales Protein gerichtet, das für das Eindringen des Virus in seine Zielzelle erforderlich ist. Wissenschaftlich etwas genauer gesagt ist der Antikörper gegen ein Epitop im Bei Brustkrebs gibt es eine Form, die durch Überexpression des „Human Epidermal Growth Factor Receptors 2“ (HER2) auf den malignen Zellen gekennzeichnet ist. In rund 25–30 % der Fälle von metastasierendem Brustkrebs ist diese Überexpression von HER2 festzustellen. Es befinden sich dann zu viele Rezeptoren auf der Zelloberfläche und die Zellen erhalten zu starke Wachstumssignale. Bei dem Rezeptorgen HER2 handelt es sich also um ein typisches Proto-Onkogen (s.S. 20). Der Monoklonale Antikörper Trastuzumab ist gegen die Bindedomäne des Rezeptors HER2 gerichtet, blockiert dadurch die Bindung des Wachstumsfaktors und schaltet das Wachstumssignal an die Zellen aus. Zusätzlich werden die durch den Antikörper markierten Zellen von der Immunabwehr des Körpers besser erkannt als die normalen Krebszellen und abgetötet. Daher ist die Prognose für Patientinnen mit metastasierendem Brustkrebs besser, wenn in einer Chemotherapie auch Trastuzumab eingesetzt wird. In klinischen Studien konnte gezeigt werden, dass der Prozentsatz an Patientinnen, die auf eine Chemotherapie ansprachen, beim gleichzeitigen Einsatz von Trastuzumab deutlich höher lag. Trastuzumab wird durch Kultur von gentechnisch veränderten Hamsterzellen (CHO-Zellen) hergestellt. Sein überwiegender Anteil entspricht einem menschlichen IgG1-kappa-Antikörper. Damit gehört Trastuzumab in die Kategorie der chimären Monoklonalen Antikörper. Impfstoffe Bei der Impfstoffherstellung bietet die Gentechnik einen großen Vorteil. Um Impfstoffe herzustellen, ist beim klassischen Verfahren ein Umgang mit den Erregern nötig. Zwar handelt es sich vielfach um abgeschwächte und damit wenig infektiöse Varianten. Dennoch bleibt für die in der Herstellung beschäftigten Personen, aber auch für die Geimpften ein Risiko. Es können sich theoretisch Revertanten der Erreger 97 Biotechnologie und Markt bilden, die wieder stärker infektiös geworden sind. Und für bestimmte Personen, deren Immunsystem geschwächt ist, kann selbst die abgeschwächte Version eines Erregers gefährlich werden. Beispielsweise können pro Jahr weltweit einige Fälle von Kinderlähmung auf Impfungen zurückgeführt werden. Die Hepatitis B gehört zu den schwereren Verlaufsformen einer Gelbsucht und kann in rund 0,5–1% der Fälle tödlich enden. Auch werden nach einer Infektion rund 5–10 % der Infizierten zu chronischen Trägern des Virus. Bei diesen chronisch Infizierten können viele Spätschäden bis hin zum Leberkrebs auftreten. Des Weiteren lassen sich von bestimmten Erregertypen keine abgeschwächten Varianten bilden. Hier müssen die Erreger selbst angezüchtet und dann vor Verwendung als Impfstoff abgetötet werden. Das Risiko für die in der Herstellung beschäftigten Personen ist offensichtlich. Für die Geimpften bleibt das Risiko einer unvollständigen Abtötung des Impfmaterials. Die Entwicklung eines Impfstoffes gegen das Hepatitis-B-Virus scheiterte zunächst daran, dass sich das Virus nicht in Zellkultur züchten lässt. Da aber bei chronisch infizierten Personen große Mengen von viralem Hüllprotein im Blut zu finden sind, konnte deren Blutplasma für die Isolierung des Hüllproteins genutzt werden. Die Verabreichung dieses Hüllproteins löste die erhoffte Immunantwort aus. Damit konnte erstmals ein Impfstoff gegen Hepatitis B hergestellt werden. Aufgrund der limitierten Quelle stand dieser Impfstoff aber nur in beschränktem Umfang zur Verfügung. Der Umgang mit infektiösem Spenderblut stellte für die in der Produktion beschäftigten Personen zudem eine potenzielle Gefährdung dar. Durch Anwendung gentechnischer Methoden konnte man zunächst einmal lernen, welche Bestandteile der Erreger für die Auslösung der Immunantwort beim Menschen verantwortlich sind. Dabei handelt es sich meist um Proteine, die bei Viren oder Bakterien an der Oberfläche liegen und deshalb vom Immunsystem erkannt werden können. Die Gene für diese speziellen Proteine können nun aus dem Erbmaterial der Erreger isoliert und in harmlose Wirtsorganismen übertragen werden. Diese stellen dann auf ungefährliche Weise das Protein her, mit dem die Immunantwort des Menschen gegen den Erreger ausgelöst werden kann. Das Impfmaterial ist für die zu impfenden Personen damit völlig harmlos. Nicht nur für den Menschen werden Impfstoffe mit biotechnischen Methoden hergestellt. Auch für Haustiere wie Schweine und Katzen stehen biotechnisch hergestellte Impfstoffe zur Verfügung. Auch im Kampf gegen die Tollwut wird seit vielen Jahren – vor allem in Frankreich und der Schweiz – ein biotechnisch hergestellter Impfstoff verwendet. Impfstoff gegen Gelbsucht (Hepatitis B) Die große Durchseuchung der Weltbevölkerung mit Hepatitis B wurde bereits beim α-Interferon kurz erwähnt. Gelbsucht wird von unterschiedlichen Virustypen ausgelöst, deren wesentlichste als A, B und C bezeichnet werden. Typ D kommt nur im Zusammenhang mit einer bereits vorhandenen Infektion mit dem Typ B vor. Typ E findet sich hauptsächlich in Entwicklungsländern. Auch weitere Virustypen sind beschrieben worden. 98 Die genetische Information für das virale Hüllprotein wurde isoliert und in Hefe exprimiert. Nun kann das für den Impferfolg entscheidende virale Protein aus der harmlosen Hefe gewonnen werden. Damit ist im Herstellprozess eine Gefährdung des Personals ausgeschlossen. Auch für die zu impfenden Personen besteht keinerlei Gefahr mehr durch eventuell noch vorhandene aktive Viren. Der Hepatitis-B-Impfstoff wird heute auch in einer Reihe von Kombinationsimpfstoffen angeboten, die eine gleichzeitige Immunisierung gegen zwei oder drei verschiedene Krankheiten erlauben. Impfstoff gegen die Lyme-Krankheit Bei der Lyme-Krankheit handelt es sich um eine oft schwer zu diagnostizierende Infektion mit Bakterien, und zwar mit Borrelia burgdorferi. Diese Bakterien, die zu den so genannten Spirochäten gehören, werden durch den Biss von Zecken auf den Menschen übertragen. Für das Jahr 1996 wurden in den USA rund 16.500 Fälle an eine zentrale Erfassungsstelle gemeldet. Nach dem Zeckenbiss kann eine deutliche Rötung im Bereich der Wunde, können Kopfschmerzen und Unwohlsein ein erster Hinweis auf die Infektion mit Borrelien sein. In einer ersten Krankheitsphase Biotechnologie und Markt klagen die Patienten häufig über Müdigkeit, Fieber und Muskel- sowie Gelenkschmerzen. Die Symptome ähneln daher stark denen einer Grippe und werden häufig nicht richtig zugeordnet. Oft bleibt die Infektion daher zunächst unbemerkt. Die zweite Krankheitsphase tritt meist erst nach Jahren ein und kann sich in Form von chronischer Arthritis, von neurologischen und anderen eher schweren Symptomen ausdrücken. Den Namen hat die Krankheit von einem Ort in Connecticut, USA, wo sie – angeblich – erstmals diagnostiziert wurde. Allerdings wird das Krankheitsbild in der medizinischen Literatur schon viel früher beschrieben. Übrigens findet sich in der Bezeichnung des Erregers, Borrelia burgdorferi, auch eine Namensanspielung, und zwar auf den Arzt Willy Burgdorfer, der das Bakterium als Auslöser der Lyme Krankheit beschrieb. Zur Herstellung des Impfstoffs wurde ein Erreger verwendet, der in den USA für das Auftreten der LymeKrankheit praktisch allein verantwortlich ist, und zwar Borrelia burgdorferi sensu stricto. Aus dem Stamm ZS7 wurde ein Gen isoliert, das für die Bildung eines einzelsträngigen Proteins von 257 Aminosäuren Länge codiert. Dieses Protein sitzt in der Membran von B. burgdorferi und ist normalerweise noch mit Fettsäuren verbunden. Es wird daher als Lipoprotein klassifiziert und trägt die Bezeichnung OspA. Für die Herstellung der Vaccine wird es in einem harmlosen Stamm des Bakteriums Escherichia coli exprimiert und daraus aufgereinigt. Der Impfstoff wird Personen zwischen 15 und 70 Jahren verabreicht. Diagnostik Im Bereich der Diagnostik ist die Biotechnologie zunächst wieder wegen ihrer Leistungsfähigkeit bei der Herstellung reiner Proteine von Bedeutung. Eine Vielzahl diagnostischer Verfahren beruht auf der Wechselwirkung von Proteinen miteinander. Der klassische Fall ist die Reaktion eines Antigens mit einem Antikörper. Im Fall einer Infektion bilden die Kranken in aller Regel Antikörper gegen das infektiöse Agens. Das Vorhandensein solcher Antikörper im Blut ist daher Indiz für das Vorliegen einer bestimmten Infektion. Mittels Gentechnik können solche Antigene nun hergestellt und zum Nachweis von Antikörpern aus dem Blut potenziell infizierter Personen genutzt werden. Bekannte Beispiele sind Diagnostika auf Hepatitis oder Aids. (Auch für eine Reihe anderer Anwendungen werden hochreine Antigene benötigt. Dass Antigene z.B. auch als Impfstoffe eingesetzt werden können, wurde bereits erwähnt.) Die Biotechnologie gestattet aber auch den analytischen Zugriff auf die Erbsubstanz DNA selbst. Dabei setzt die genetische Diagnostik prinzipiell schon bei der mikroskopischen Beobachtung von Chromosomen an. Veränderungen in Anzahl oder Gestalt der Chromosomen können den Verdacht nahe legen, dass ein bestimmter Defekt zur Ausprägung kommen wird. Ein bekannter Fall ist die Trisomie 21, bei der eine zusätzliche Kopie von Chromosom 21 in den Zellen vorhanden ist, siehe Abb. S. 39. Die Folge ist das Down-Syndrom, das auch unter dem Namen Mongolismus bekannt ist. Die Verdoppelungen der Geschlechtschromosomen können ebenfalls zu markanten Ausprägungen führen. Ebenso kann das Fehlen oder der Austausch von Chromosomenarmen mit bestimmten Krankheiten in Verbindung gebracht werden. In die molekularen Dimensionen stößt man vor, wenn eine Krankheit mit einer auffälligen Anomalie in der DNA in Verbindung gebracht werden kann. Beispielsweise ist die phänotypische Ausprägung einer Krankheit in einigen Fällen auf DNA-Ebene an eine veränderte Schnittstelle für ein bestimmtes Restriktionsenzym gekoppelt. Diese Schnittstelle kann dabei sehr weit vom eigentlichen Gen entfernt liegen und mit diesem gar nichts zu tun haben. Beide Mutationen sind irgendwann getrennt voneinander entstanden, doch da sie relativ dicht zusammen liegen, werden sie fast immer gemeinsam vererbt und treten daher fast immer gemeinsam auf. Das Vorhandensein oder Fehlen einer einfach zu detektierenden Restriktionsschnittstelle liefert damit Aussagen über das Auftreten eines defekten Gens. Allerdings kann die Restriktionsschnittstelle vom Gen durch Rekombinationsereignisse getrennt werden. Je weiter die beiden auseinander liegen, desto häufiger wird das geschehen. Die Aussage ist daher mit einer gewissen Unsicherheit behaftet. Die genetischen Unterschiede werden als Restriktionsfragment-Längen-Polymorphismen bezeichnet und das Verfahren mit RFLP abgekürzt. Die modernen Methoden gestatten es nun auch, ein interessierendes Gen direkt zu untersuchen. Nach einer Klonierung kann man die Sequenzen von Genen 99 Biotechnologie und Markt aus gesunden und kranken Menschen miteinander vergleichen und Unterschiede erkennen. Auf diesem Gebiet wurden in den letzten Jahren rasante Fortschritte gemacht. Im Kapitel 2.4 der Broschüre wird darauf ausführlicher eingegangen. Aus der Vielzahl von Genen, die heute für diagnostische Zwecke zur Verfügung stehen, sollen die Gene für Chorea Huntington (Veitstanz), für Cystische Fibrose und für Brustkrebs exemplarisch genannt werden . Mit dem Wissen um die genaue Sequenz der Gene aus Gesunden und Kranken werden sehr exakte Diagnosen möglich. Dazu wird die zu untersuchende DNA aus Körperzellen, z.B. Blutzellen, isoliert und mit spezifischen DNA-Sonden umgesetzt. Dies liefert Hinweise darauf, ob die genetische Anlage für eine Krankheit gegeben ist. Im Kapitel 2.11 wird das Verfahren näher erläutert. Von technischen Problemen einmal abgesehen sind die erhaltenen Aussagen eindeutig, allerdings nur für den untersuchten Genort. In aller Regel können mit einer genetischen Diagnose nur wenige, genau definierte Genbereiche erfasst werden. Man kann dann aussagen, ob ein bekannter Gendefekt vorliegt oder nicht. Andere Defekte im selben Gen sind dadurch aber nicht ausgeschlossen. In einigen Fällen führen so viele unterschiedliche Mutationen in ein und demselben Gen zur Ausprägung der Krankheit, dass sie kaum alle sinnvoll getestet werden können. In diesen Fällen müsste man sich wohl mit einem Test auf die am häufigsten auftretenden Defekte begnügen. Wir stoßen also immer wieder an neue Grenzen. Vererbbare Mutationen können allerdings mit großer Sicherheit ausgeschlossen oder bestätigt werden. Hier kennt man die betreffende Mutation ja im Allgemeinen ganz genau. Der Zugewinn an Diagnoseschärfe zahlt sich in diesen Fällen besonders aus. Natürlich ist der Gewinn an Lebensfreude bei den Menschen, die eine mögliche Betroffenheit für sich ausschließen können, erheblich. Und bei denen, die einen vermuteten Gendefekt bestätigt sehen, können präventive Maßnahmen in der Gewissheit durchgeführt werden, dass sie tatsächlich notwendig sind. Auf die Probleme, die sich aus den neuen Möglichkeiten der Diagnose ergeben können, wird an anderer Stelle dieser Broschüre eingegangen (Kapitel 6.3). Die genaue Kenntnis der Besonderheiten in der genetischen Ausstattung verschiedener Organismen führte 100 auch zur Entwicklung von DNA-Analysen, die nicht unmittelbar einen diagnostischen Charakter haben müssen. Hierzu gehört die Methode des DNA-Fingerprinting. Diese Methode erlaubt eine Identifizierung einzelner Individuen anhand von Besonderheiten in ihrer DNA. Wie der Name schon nahe legt, ist diese Methode ebenso eindeutig wie ein Fingerabdruck. Sie kann aber nicht nur beim Menschen eingesetzt werden, sondern ganz allgemein bei beliebigen Organismen. Deswegen findet die Methode heute in kriminaltechnischen Labors ebenso Anwendung wie bei Medizinern, Tier- und Pflanzenzüchtern oder in mikrobiologischen Labors. Mittels des DNA-Fingerprinting können auch verwandtschaftliche Beziehungen geklärt werden. Ein Vaterschaftsnachweis ist damit eindeutiger zu führen als mit biochemischen Methoden. Bei der Identifizierung von unkenntlich gewordenen Unfallopfern, beispielsweise nach Flugzeugabstürzen, kann durch Vergleich der DNA eines Toten mit der von Verwandten eine klare Aussage über die Identität getroffen werden. Durch die Möglichkeit, kurze DNA-Fragmente mittels der PCR-Reaktion millionenfach zu amplifizieren, könnten DNA-Moleküle definierter Sequenz auch zu reinen Markierungszwecken herangezogen werden. Ein wenig DNA in der Ladung eines Öltankers verteilt könnte in Zukunft womöglich eine einfache Zuordnung bislang noch anonymer Ölteppiche erlauben. Wenngleich noch recht visionär, ist dies ein Beispiel für die völlig neuen Anwendungen, die sich aus den Möglichkeiten der DNA-Analyse ergeben könnten. DNA-Chips Bei DNA-Chips, die im Jargon gelegentlich auch als Biochips bezeichnet werden, handelt es sich um kleine Plättchen aus einem Trägermaterial wie Glas oder Kunststoff, auf die in einer Punktraster-Anordnung viele verschiedene DNA-Oligonucleotide mit bekannten Sequenzen fixiert wurden. Die Herstellungsverfahren ähneln nicht ganz zufällig der Produktion von Halbleiterchips für die Mikroelektronik. Man nutz fotolithografische Verfahren, um an exakten Positionen auf dem Chip einzelsträngige DNA-Sequenzen durch lichtgesteuerte Kupplungsreaktionen aufzubauen. Am Ende enthält jede Position rund 10 Mio. Moleküle des jeweiligen Oligonucleotids. Alternativ dazu wird eine Biotechnologie und Markt ähnliche Technik wie beim Tintenstrahldrucker eingesetzt, um winzige Tröpfchen der zur Oligonucleotidsynthese benötigten Reaktionslösungen auf kleinste Flächen zu dosieren. Anfang 2000 waren DNA-Chips erhältlich, auf denen 64.000 verschiedene DNAOligonucleotide auf einer Fläche von 1,28 x 1,28 cm untergebracht sind. Schon bald nachdem man 1996 das Genom der Bäckerhefe entschlüsselt hatte, dienten diese Informationen zur Herstellung des „Hefe-Genchips“. Er enthielt die Sequenzmotive von 6.116 Hefegenen, angeordnet als mikroskopisches Punktraster auf einer Fläche von 18mm x 18 mm (s. Abbs.). Will man nun wissen, welche Gene in einem bestimmten Zustand der Hefezelle aktiv sind, macht man Folgendes: Man isoliert die mRNA, markiert sie mit einem fluoreszierenden Farbstoff und gibt sie auf den Chip. Da sich die mRNA oft schwer handhaben lässt, wird in der Praxis üblicherweise die entsprechende farbstoffmarkierte cDNA, also exakte DNA-Kopien der mRNA-Moleküle, verwendet. Am Prinzip des Experiments ändert sich dadurch aber nichts. Auf dem Chip binden sich die verschiedenen – jeweils einzelsträngigen – cDNA-Moleküle gemäß den Hybridisierungsregeln spezifisch an die fixierten Oligonucleotide. Bei geeigneter Belichtung erscheint ein charakteristisches Muster von farbig leuchtenden Punkten, dem sich über die bekannten Sequenzen der Oligonucleotide an den entsprechenden Positionen entnehmen lässt, welche Gene „angeschaltet“ waren. Gibt man die andersfarbig markierte cDNA eines anderen Zellzustands hinzu, erhält man ein weiteres Punktmuster, das die Genaktivität dieses Zustands widerspiegelt. Der Unterschied zwischen beiden Zellzuständen ist auf einen Blick zu sehen. Im nebenstehenden Bild ist das für die Genaktivitäten von Hefezellen bei Glucosemangel (rote Punkte) und bei ausreichender Glucoseversorgung (grüne Punkte) wiedergegeben. Man sieht sehr schön, dass in beiden Zuständen ganz verschiedene Gengruppen „eingeschaltet“ werden. Auch die Gene, die in beiden Zuständen aktiv sind, sind gut erkennbar. Sie erscheinen als gelbe Punkte, da Gelb die Mischfarbe aus rotem und grünem Licht ist. Wegen solcher Informationen wurden DNA-Chips zu wertvollen Werkzeugen der molekularbiologischen Grundlagenforschung, z.B. um das Zusammenspiel der Gene in den aktiven Stoffwechselwegen in unterschiedlichen Zellstadien aufzuklären. Der Stoffwechsel auch der einfachsten Organismen ist ein kompliziertes Netzwerk von enzymatischen Reaktionen, die über zahllose Zwischenprodukte (Metabolite) miteinander verknüpft sind (s. Abb. Schema). Je nach physiologischem Zustand werden unterschiedliche Stoffwechselwege benötigt, wobei die entsprechenden Sätze von Genen aktiv werden. Die Aufklärung eines solchen Metabolischen Netzwerks ist naturgemäß schwierig. Mühsam mussten in der Vergangenheit einzelne Enzyme, bzw. deren Gene, gesucht werden, die eine Rolle im betreffenden Zustand spielten. Dank der DNA-Chips erhält man nun ganze Sätze von in Frage kommenden Kandidaten, wodurch sich die Untersuchungen stark beschleunigen. Einen großen Impuls verspricht die Biochip-Technologie für die Antiinfektivaforschung. Untersucht man auf die geschilderte Weise zwei eng verwandte Mikroorganismenstämme – der eine pathogen, der andere nichtpathogen – erhält man wertvolle Hinweise auf Gene bzw. Proteine, die für den pathogenen Stamm charakteristisch und möglicherweise essenziell sind. Sie sind natürlich heiße Kandidaten für die Suche nach neuen Ansatzpunkten für antibiotische Wirkstoffe. Unter diesen Genen befinden sich sehr wahrscheinlich auch Gene, die für den Infektionsprozess benötigt werden. Kennt man sie, lässt sich daraus auch vieles über die Mechanismen der Infektionen lernen und es können weitere Achillesfersen der Krankheitserreger entdeckt werden. 101 Das Hefegenom auf einen Blick: Gen für Gen übersichtlich angeordnet. Biotechnologie und Markt Für die mikrobielle Diagnostik sind DNA-Chips bereits verfügbar. Die hier verwendeten Chips tragen Oligonucleotide, die charakteristische DNA-Fragmente von pathogenen Keimen repräsentieren und sich deswegen zum spezifischen Nachweis dieser Mikroorganismen aus Lebensmitteln, Abwasser oder Gewebeproben eignen. Ihr großer Vorteil ist die im Vergleich zu traditionellen Methoden kurze Frist, in der das Untersuchungsergebnis vorliegt. Die gleichzeitige Erfassung tausender charakteristischer Gene erlaubt auch die Präzisierung medizinischer Befunde. So wurde ein Chip entwickelt, der 18.000 verschiedene Tumorgene repräsentiert. Er erlaubt es, zwei sehr ähnliche Varianten des B-Zell-Lymphoms, einer schweren Krebserkrankung, aufgrund ihrer verschiedenen Genaktivitätsmuster zu unterscheiden. Dabei stellte sich heraus, dass eine Form der Krankheit, die rund zwei Fünftel der Fälle ausmacht, auf zytostatischer Chemotherapie anspricht, die andere nicht. Je mehr genetische Informationen aus den Genomprojekten gewonnen werden, desto mehr spezielle Chipanwendungen werden denkbar. Fast täglich findet man neue Belege, dass kleine Abweichungen in einzelnen DNA-Basenpaaren für das Zustandekommen von vielen Krankheitsbildern verantwortlich sind. Diese so genannten Einzel-Nucleotid-Polymorphismen (engl. single nucleotide polymorphisms, SNPs) tauchen im ganzen Genom je nach Region in Abständen von 100–2.000 Basenpaaren auf. Für die schnelle Diagnose solcher individuellen „Krankheitsvarianten“ bieten sich DNA-Chips geradezu an. Hier verwendet man Chips, die alle Kombinationen eines Oligonucleotids repräsentieren. Bei einer vorgegebenen Länge von beispielsweise acht Nucleotiden, so genannten Octameren, erhält man theoretisch 48 = 65.536 verschiedene Varianten. Das ist eine Zahl von Oligonucleotiden, die sich noch gut auf einem Chip unterbringen lässt. Da alle theoretisch möglichen Octamere auf dem Chip vorhanden sind, lässt sich prinzipiell die komplette mRNA-Population entsprechend den darin vorkommenden 8er-Sequenzen auftrennen. Kleine Abweichungen zwischen zwei Individuen werden dann anhand der charakteristischen Unterschiede in den Hybridisierungsmustern erkennbar. Mögliche Korrelationen der individuellen Polymorphismen-Muster mit der variierenden Wirksamkeit und 102 Verträglichkeit von Medikamenten sollen nach den Vorstellungen der Genomforscher Informationen für „individualisierte Therapien“ liefern. Durch die genaue Kenntnis wichtiger Polymorphismen eines Patienten soll es in Zukunft möglich sein, sofort die individuell wirksamste Behandlung zu beginnen, anstatt mit weniger geeigneten oder ineffizienten Verfahren wertvolle Zeit zu verlieren. Diese Forschungsrichtung, in der Genomforschung, molekulare Diagnostik und pharmazeutische Forschung zusammenfließen, nennt sich Pharmacogenomics. Der britische Wellcome Trust und zehn große internationale Pharmafirmen beschlossen 1999, gemeinsam nach SNPs im Humangenom zu suchen. Dazu ist ein SNP-Konsortium mit Zentrale in Chicago gegründet worden. Die SNP-Daten werden in öffentlichen Datenbanken publiziert. Produkte in der Landwirtschaft Die modernen gentechnischen Verfahren wurden zunächst an Mikroorganismen angewendet. Vor der Ausdehnung auf höhere Organismen mussten noch etliche experimentelle Hürden genommen werden. Besonders Pflanzenzellen stellten ein Problem dar, da sie von einer kräftigen Zellwand umgeben sind, die den Transfer von DNA erschwert. Doch nach den ersten erfolgreichen Versuchen und dank Fortschritten bei der Regeneration von Zellen eröffneten sich auch dem Agrosektor viele neue Möglichkeiten. Der Schwerpunkt kommerzieller Entwicklungen lag dabei auf der Herstellung von Kulturpflanzen, die gegen Herbizide und Insekten geschützt sind. Angebaut werden diese transgenen Pflanzen überwiegend in den USA und Kanada, einigen südamerikanischen Ländern und China. Die Diskussion um den Anbau, vor allem aber die Verwendung dieser Pflanzen ist besonders in Europa noch in vollem Gange. Nachfolgend wird eine Reihe von Entwicklungen summarisch vorgestellt. Wie schon bei den Produkten aus dem Pharmabereich wird auf die Angabe von Handelsnamen verzichtet. Herbizidresistente Pflanzen Mit dem Ziel einer Ertragssteigerung bei Kulturpflanzen sind nicht nur immer bessere Sorten gezüchtet worden. Vielmehr wurden auch die Verfahren des Biotechnologie und Markt Anbaus ständig verbessert. Einen wesentlichen Anteil daran hatte die Entwicklung von chemischen Substanzen, die das Wachstum von konkurrierenden Unkräutern unterdrücken können. Der intensive Einsatz dieser Herbizide und anderer Pflanzenschutzmittel hatte aber auch Schattenseiten. Die Substanzen erwiesen sich zum Teil als so langlebig, dass sie ins Grundwasser gelangen konnten und dieses belasteten. Daher hat die Suche nach Wirkstoffen, die gegen ein möglichst breites Spektrum an Unkräutern wirken und schnell abbaubar sind, eine lange Tradition. Bei dieser Suche fand man auch Substanzen, die aufgrund ihres Wirkmechanismus alle Pflanzen angreifen, nicht nur die Unkräuter. Trotz anderer Vorteile waren diese Stoffe, die Totalherbizide genannt werden, für einen Einsatz in der Landwirtschaft natürlich nicht brauchbar. Mit ihrem Einsatz hätte man ja quasi das Kind mit dem Bade ausgeschüttet und nicht nur die Unkräuter, sondern auch die zu schützenden Kulturpflanzen bekämpft. Die Verfügbarkeit gentechnischer Methoden bot hier aber einen Ausweg. Nachdem man die genaue Wirkungsweise eines Totalherbizids verstanden hatte, konnte man nach Wegen suchen, um die interessanten Kulturpflanzen durch Einführung neuer Gene gezielt vor der Wirkung dieses Totalherbizids zu schützen. In bestimmten Fällen ließ sich das auch tatsächlich realisieren. Damit standen Kulturpflanzen zur Verfügung, die den Einsatz eines Totalherbizides vertragen konnten. Das Merkmal der Herbizidresistenz ist in den letzten Jahren auf eine ganze Reihe unterschiedlicher Kulturpflanzen und Sorten übertragen worden. Einige dieser gentechnisch veränderten Pflanzen, vor allem Mais, Soja, Raps und Baumwolle, haben sich am Markt, besonders in den USA, rasch durchgesetzt. Allerdings ist diese Entwicklung im Agrobereich gerade bei uns in Europa sehr kritisch diskutiert worden. Die Bedenken in der Bevölkerung, die sich gegen einen großflächigen Anbau gentechnisch veränderter Pflanzen und vor allem gegen ihre Verwendung in der Nahrungs- und Futtermittelindustrie richten, konnten nicht ausgeräumt werden. In Kapital 6.3 der Broschüre wird darauf eingegangen. Die Vorteile der gentechnisch veränderten Pflanzen werden darin gesehen, dass sie den Einsatz moderner, gut abbaubarer Herbizide erlauben und je nach Bedarf eingesetzt werden können. Eine Konkurrenz durch Unkräuter ist meist nur in einer frühen Wachstumsphase für die Kulturpflanzen wirklich bedrohlich. Je nach der Stärke des Befalls mit Unkräutern kann entschieden werden, ob und mit welcher Aufwandmenge an Totalherbizid eingegriffen wird. Das ist bei Verwendung konventioneller Herbizide längst nicht immer möglich, da diese oft prophylaktisch ausgebracht werden müssen. Insektenresistente Pflanzen Dem Insektenfraß fällt eine häufig unterschätzte Menge an Ernteertrag zum Opfer. Pflanzen haben zwar im Lauf der Evolution bestimmte Abwehrstoffe gegen Insekten entwickelt. Den Kulturpflanzen wurden diese Stoffe aber meist weggezüchtet, weil sie oft auch für den Menschen unangenehm sind. In anderen Fällen, wie z.B. beim bekannten Pyrethrum aus einer Chrysanthemenart, werden die pflanzlichen Abwehrstoffe vom Menschen angewendet, allerdings nicht im Pflanzenschutz. Mit Stoffen, die vom Pyrethrum abgeleitetet sind, schützt sich der Mensch schon seit langer Zeit selbst vor lästigen Insekten. Gefräßiger Geselle: Dem Maiszünsler fällt in manchen Regionen ein Drittel der Maisernte zum Opfer. Allerdings hat man auch für den Schutz von Pflanzen ein Prinzip der Natur nutzbar machen können. Es stammt aus dem Bereich der Interaktion von Mikroorganismen und Insekten. Bestimmte Bakterien haben die Fähigkeit entwickelt, in Zeiten der Nahrungsknappheit in eine Art unbegrenzten Winterschlaf zu verfallen. Dazu umgeben sie sich mit einer festen Hülle, die sie gegen die Umwelt abschirmt und vor Austrocknung bewahrt. Einige Stämme von Bacillus thuringiensis, einem besonders gut untersuchten Bakterium, produzieren nun in dieser Hülle ein Protein, das für die 103 Biotechnologie und Markt Larven bestimmter Insekten sehr giftig ist. Man hat sich diese Tatsache schon seit vielen Jahrzehnten zunutze gemacht, indem die Bakterien in großen Mengen angezüchtet und als eine Art lebendes Insektizid auf den Feldern versprüht worden sind. Da das Toxin in seiner Wirkung sehr spezifisch ist, weist es in der Natur nur sehr geringe Nebenwirkungen auf. Für den Menschen ist das bakterielle Protein vollkommen harmlos. Mit der Verfügbarkeit gentechnischer Methoden ließ sich nun ein anspruchsvoller Gedanke verwirklichen. Statt das insektizide Protein auf dem Umweg über die Bakterien an die Pflanzen zu bringen, konnte man das Protein nach Übertragung des entsprechenden Gens von den Kulturpflanzen selbst herstellen lassen. Wenn die Insektenlarven nun mit dem Fraß beginnen, nehmen sie mit dem Pflanzenmaterial auch das für sie toxische Protein auf. Innerhalb kurzer Zeit sterben sie daran. Mit diesem Vorgehen werden zum einen die Kosten bei der Anzucht der Bakterien vermieden, vor allem aber witterungsbedingte Verluste. Denn nach dem Aufsprühen der Bakterien auf die Pflanzen besteht die Gefahr, dass ein kräftiger Regenguss die Hauptmenge wieder herunterspült. Es gibt zwar Wege, dies so gut es geht zu vermeiden. Aber die beste Möglichkeit besteht natürlich darin, das Insektizid in der Pflanze selbst zu haben. wieder auftauchen. Bei der so genannten FlavrSavrTomate handelte es sich um eine Variante, bei der ein in der Tomate ohnehin vorhandenes Gen durch gentechnische Verfahren nochmals in ihr Genom eingebaut worden ist. Diesmal allerdings „verkehrt herum“. Das verkehrt herum eingebaute Gen sorgt dafür, dass die Funktion des normalen Gens ausfällt, da dessen genetische Information gar nicht erst in ein Protein umgesetzt wird. Das zugrunde liegende Prinzip wird häufig als „Anti-Sense-Prinzip“ bezeichnet. Vom betreffenden Gen wird normalerweise das Enzym Polygalakturonidase gebildet. Dieses greift die Wände der Pflanzenzellen an und ist mit dafür verantwortlich, dass die Tomaten weich werden. Wenn das Gen ausgeschaltet ist, halten sich die Tomaten nach der Ernte länger und können daher über längere Strecken transportiert werden. Dies ist dann von Bedeutung, wenn die Tomaten nicht unmittelbar am Entstehungsort verzehrt werden, sondern für die Versorgung weit entfernt liegender Regionen gedacht sind. Tomaten Als Vorteil der neuen Variante wurde vor allem gesehen, dass die Tomaten am Stock reifen können und erst dann geerntet und verschickt werden. Beim gängigen Verfahren werden die Tomaten dagegen noch grün gepflückt und die Reifung wird dann erst kurz vor der Vermarktung durch eine Begasung mit dem Pflanzenhormon Ethylen beschleunigt. Die Hoffnung war, dass sich der Geschmack der Tomate bei der gentechnisch veränderten Varietät besser entfalten kann. Eine entsprechende Sorte wurde 1994 in den USA in den Markt eingeführt und hat unter dem Namen FlavrSavr, was so viel heißen soll wie Geschmacksretter, eine gewisse Berühmtheit erlangt. Eine hohe Marktdurchdringung wurde mit dieser Sorte allerdings nicht erreicht. Das lag zum einen an der nicht besonders ausgeprägten Qualität der verwendeten Ausgangssorte und auch daran, dass die am Strauch gereiften Tomaten von den auf harte, unreife Früchte ausgelegten Erntemaschinen geschädigt wurden. Die FlavrSavr-Tomate ist heute nicht mehr am Markt. Das ihr zugrunde liegende Prinzip wird aber derzeit in viele andere Varietäten getestet. Die nachfolgend genannten Produkte sind im Frühjahr 2000 nicht marktgängig. Sie sollen aber an dieser Stelle trotzdem erwähnt werden, weil sie in der Diskussion um die Biotechnologie in der Landwirtschaft immer Kaum weniger spektakulär war die Markteinführung eines Produkts, das aus einer anderen gentechnisch hergestellten Tomate gewonnen wird. Die Sorte dient allerdings von vornherein nur zur Herstellung von Insektenresistente Sorten mit entsprechenden gentechnischen Veränderungen gibt es hauptsächlich von Baumwolle und Mais. Für den Erfolg und die Marktdurchdringung gilt Ähnliches wie bei den herbizidresistenten Varietäten. Das Prinzip hat sich seit 1996, vor allem in den USA, gut bewährt. Die gentechnisch veränderten Sorten haben bis zum Jahr 1999 einen immer größeren Marktanteil errungen. Allerdings regt sich gegen den Anbau und die Verwertung der Pflanzen, vor allem in Europa, Widerstand. Es bleibt daher für die Zukunft abzuwarten, wie sich die entsprechenden Anbauflächen entwickeln werden. 104 Biotechnologie und Markt Püree angebaut. Auf etwas andere Art als bei der FlavrSavr-Tomate wird auch bei der für die Herstellung von Püree verwendeten Tomate die Wirkung des Enzyms Polygalakturonidase ausgeschaltet. Die Tomaten können – wie bereits gesagt – deshalb im reifen Zustand länger am Strauch bleiben. Das ist für die Farmer ein großer Vorteil, da sie für die saisonal eng begrenzte Ernte nun mehr Zeit haben und Perioden schlechten Wetters besser toleriert werden können. Auch fallen Ernteschäden bei der Herstellung von Püree weniger stark ins Gewicht. Aufgrund der Vorteile konnte das Püree in England zu einem sehr vorteilhaften Preis in den Markt eingeführt werden und fand zunächst reißenden Absatz. Das Etikett wies sehr auffällig darauf hin, dass gentechnisch veränderte Tomaten als Ausgangsprodukt für das Püree gedient hatten. Aufgrund der in England 1999 einsetzenden heftigen Diskussion um gentechnisch veränderte Lebensmittel wurde das Produkt vom Markt genommen. ab-, auf- und umzubauen, zu isolieren und zu identifizieren. Dabei werden gerade an diese Enzyme sehr hohe Anforderungen hinsichtlich ihrer Reinheit gestellt. Deshalb gehörten sie zu den ersten Produkten, die gentechnisch hergestellt wurden. Denn durch gentechnische Verfahren können Enzyme in großen Mengen und herausragender Reinheit zur Verfügung gestellt werden. Tatsächlich sind manche Verfahren heute nur deswegen möglich, weil die dafür notwendigen Enzyme gentechnisch sehr sauber hergestellt werden können. Für Forschungs- und Entwicklungslabors wird heute eine breite Palette an solchen Enzymen in jeweils relativ kleinen Mengen angeboten. Aus der Medizin sind Enzyme nicht mehr wegzudenken. In zahlreichen diagnostischen Anwendungen liefern sie die Werte, auf die es ankommt. Auch bei vielen therapeutisch eingesetzten Proteinen handelt es sich um Enzyme. Beispiele hierfür sind die Faktoren der Blutgerinnung, die bereits vorgestellt worden sind. Technische Enzyme Dem Querschnittscharakter der Biotechnologie entsprechend profitieren auch viele andere Bereiche neben der Pharma und der Landwirtschaft von ihren Entwicklungen. Nachfolgend soll schlaglichtartig auf die Enzymherstellung eingegangen werden. Bei Enzymen handelt es sich ganz allgemein um Proteine mit katalytischer Funktion. Als Katalysatoren sorgen Enzyme dafür, dass wichtige chemische Reaktionen in lebenden Zellen überhaupt ablaufen können. Enzyme sind die allgegenwärtigen Aktivisten der Zelle. Enzyme arbeiten schnell, effizient und hochspezifisch. Kein Wunder also, dass sich der Mensch die Fähigkeiten von Enzymen schon seit altersher nutzbar gemacht hat. Zunächst waren sie die entscheidenden Bestandteile lebender Organismen, die der Mensch bei der Herstellung von Brot, Bier und Wein unbewusst eingesetzt hat. Später lernte man, Enzyme aus Zellen zu isolieren und ihre ganz spezifischen Fähigkeiten gezielt zu nutzen. Enzyme sind heute selbstverständliche Hilfsmittel in der Medizin, Biologie und Chemie, aber auch in der Lebensmittel- und Waschmittelindustrie. Für die Gentechnik sind Enzyme unverzichtbare Werkzeuge. Ohne Enzyme keine Gentechnik. Sie werden benötigt um DNA zu schneiden, zusammenzufügen, Daneben gibt es weitere große Anwendungsfelder für Enzyme. In der Tierernährung werden sie ebenso eingesetzt wie bei der Lebensmittelherstellung. Als Beispiel für den ersten Fall soll die Phytase genannt werden, ein Enzym, das Phosphat aus pflanzlichen Quellen verfügbar macht. Das Enzym kommt in den Mägen von Wiederkäuern vor, nicht aber in Schweinen oder Hühnern. Diese Tiere können daher pflanzliches Phosphat schlecht verwerten und dem Futter musste Phosphat zugesetzt werden, um ein gutes Wachstum der Tiere zu erreichen. Die gentechnische Herstellung der Phytase nach der Klonierung des Gens in den Pilz Aspergillus niger erlaubt es nun, die Phytase einzusetzen um das pflanzliche Phosphat für die Tiere besser verfügbar zu machen. Dadurch wird nicht zuletzt die Belastung der Umwelt mit Phosphat erheblich reduziert. Ein bekanntes Beispiel für den zweiten Fall ist Chymosin, das bei der Käseherstellung eine wichtige Rolle spielt. Das ursprünglich aus Kälbermägen isolierte Enzym steht nach der Klonierung des Gens in die Hefe Kluyveromyces lactis in unbegrenzter Menge und größerer Reinheit zur Verfügung. Ein Mangel an Enzym, der angesichts steigenden Käsekonsums befürchtet worden war, ist daher für die Zukunft auszuschließen. Auch gilt das aus dem Pilz isolierte Enzym als koscher und die damit hergestellten Produkte können entsprechend ausgewiesen werden. 105 Biotechnologie und Markt Große Chancen für Enzyme werden in der Chemie gesehen. Sie eröffnen hier Alternativen zu bestehenden Syntheseverfahren. Die Herstellung von 7-ACA, einem Zwischenprodukt bei der Herstellung von Cephalosporin-Antibiotika, ist dafür ein Beispiel. Durch gescheite Überlegung hat man bei der Synthese enzymatische Verfahrensschritte eingebaut, die eine umweltschonendere Herstellung des Zwischenprodukts 7-ACA erlauben. Der produktionsintegrierte Umweltschutz, der mit diesem Beispiel kurz charakterisiert worden ist, wird zunehmend wichtig. Viele Firmen folgen der Geschäftsidee, Enzyme zu isolieren und zu entwickeln, die für derartige industrielle Anwendungen interessant sein könnten. Der größte Einzelmarkt für die so genannten technischen Enzyme – an deren Reinheit keine besonders hohen Anforderungen gestellt werden müssen – ist heute der Waschmittelsektor. Hier sind besonders Proteasen und Lipasen interessant. Proteasen sind generell in der Lage, Eiweiß abzubauen; Lipasen können Fette abbauen. Das sind willkommene Eigenschaften, wenn es darum geht, entsprechende Flecken aus der Wäsche zu entfernen. Dabei stellt der Waschvorgang selbst hohe Anforderungen an die Stabilität der Enzyme. Gentechnische Methoden bieten hier prinzipiell die Möglichkeit, die Eigenschaften der eingesetzten Enzyme an die Anforderungen des Waschvorgangs anzupassen. Der Einsatz von Enzymen erlaubt es heute, schon bei geringerer Waschtemperatur optimale Sauberkeit zu erreichen und damit Energie zu sparen. Generell ist von Bedeutung, dass mittels biotechnischer Methoden die Ausbeuten an Enzymen stark gesteigert werden können. Häufig werden die interessanten Enzyme von ihren originären Wirten nur in geringen Mengen hergestellt. Nach Transfer der genetischen Information in andere Produzentenstämme kann die Ausbeute deshalb oft dramatisch gesteigert werden. Bei der Herstellung von Enzymen bedeutet das ebenso häufig eine dramatische Einsparung an Rohstoffen und Energie. Es ist keine Seltenheit, dass ein biotechnisches Verfahren für die Produktion der gleichen Enzymmenge im Vergleich zum klassischen Verfahren weniger als ein Zehntel der Ressourcen verbraucht. 106 Durch die Kombination von Gentechnik mit neuen Verfahren der Proteinbiochemie bis hin zu Proteinkristallographie und Röntgenstrukturanalyse hat man faszinierende Einblicke in die Wirkweise von Enzymen erhalten. Aus der räumlichen Struktur der Enzyme können viele ihrer Eigenschaften erklärt werden. Dank der gewaltigen Rechnerleistung moderner Computer lassen sich Proteinstrukturen bis hin zu einzelnen Atomgruppen auflösen. Der Forscher bewegt sich am Bildschirm von einer Aminosäure zur nächsten und kann überlegen, was für Auswirkungen ein Austausch von Aminosäuren auf die Eigenschaften des Enzyms haben wird. Mit den Methoden der Gentechnik kann ein solches verändertes Molekül dann recht schnell hergestellt und die Voraussage der Kristallographen überprüft werden. In diesem Wechselspiel kann man sich Proteine für bestimmte Anwendungen förmlich maßschneidern. Man spricht dann auch tatsächlich von maßgeschneiderten Proteinen. Das Verfahren, bei dem gezielt einzelne Aminosäuren in Proteinen ausgetauscht werden, bezeichnet man als ortsspezifische Mutagenese. Etwas weniger gezielt, aber außerordentlich erfolgreich orientiert sich die Wissenschaft auch an den Prinzipien der Natur. Das zuerst von Darwin bei der Entwicklung von Lebewesen erkannte Zusammenspiel von Mutation und Selektion wirkt letztlich ja auf der Ebene der Moleküle; man spricht hier deshalb auch von „Molekularer Evolution“. In einem bemerkenswerten dynamischen Gleichgewicht von Mutagenese und Selektion entstand seit dem Beginn des Lebens eine große Vielfalt natürlicher Enzyme, die einzelne chemische Reaktionen hochspezifisch katalysieren und einzigartige Funktionen ausüben können. Heute nutzt man die Mechanismen der Evolution im Labor, um in möglichst kurzer Zeit Proteine mit speziellen Eigenschaften zu erzeugen. Zum Beispiel möchte man Fett spaltende Enzyme, so genannte Lipasen, entwickeln, die auch unter den rauen Bedingungen in der Waschmaschine funktionieren. Oder man sucht Enzyme, die im Gegensatz zu den natürlichen „Vorfahren“ auch in organischen Lösemitteln aktiv sind, um damit technisch interessante Reaktionen zu katalysieren. Manchmal sollen Enzyme auch andere Substrate als die natürlichen umsetzen. Biotechnologie und Markt Die Vorgehensweise der evolutiven in-vitro-Proteinoptimierung ist im Prinzip ganz einfach und der natürlichen Evolution abgeschaut: Man erzeugt eine große Zahl von mutierten Varianten eines Proteins, dessen Eigenschaften man abwandeln möchte. Leistungsfähige Auswahlverfahren (das so genannte Screening) dienen dann zur Selektion der Eiweißmutanten, deren Eigenschaften den gewünschten am nächsten kommen. Oft muss man sie erneut mutieren und selektieren, um noch bessere Annäherungen zu erreichen. Diese Zyklen lassen sich theoretisch so oft wiederholen, bis das gewünschte Ziel dieser „Gerichteten Evolution“ erreicht ist. In der Praxis hat sich zur in-vitro-Erzeugung von Mutanten-Bibliotheken auch das „Gen-Vermischen“ (engl. gene shuffling) bewährt (siehe Abb.). Ausgangspunkt ist ein ganzer Satz von zufallsmutierten oder natürlichen Varianten eines bestimmten Gens. Diese Gensequenzen werden enzymatisch in kleine Stücke zerschnitten, die Fragmente zusammengegeben und wie Spielkarten durcheinander gemischt. Durch PCRReaktionen („reassembly PCR“) lassen sich an den Enden überlappende Fragmente wieder zu kompletten Gensequenzen „zusammenkleben“. Man erhält so entsprechend den zahlreichen unterschiedlichen Fragmentkombinationen viele neue Genvarianten. Sie werden in Wirtsorganismen kloniert, die zusammen als „Klon-Bibliothek“ bezeichnet werden. Varianten des Eiweiß spaltenden Enzyms Subtilisin, die auch bei niedrigen Temperaturen (23 °C) aktiv sind, erzeugte man aus 26 Genmutanten eine Bibliothek von 654 Klonen. Als man sie auf weitere Eigenschaften wie die Stabilität oberhalb von pH 10, „Lösemittelbeständigkeit“ und Temperaturstabilität untersuchte, fand man sogar Kombinationen vorteilhafter Eigenschaften; z.B. Enzyme, die sowohl pH 10 vertrugen als auch bei 23 °C gut funktionierten! Mittlerweile sind zahlreiche evolutiv optimierte Enzyme auf dem Markt, z.B. Peroxidasen, die das Verfärben von Wäschestücken verhindern sollen, oder AlphaAmylasen, die zur Stärkehydrolyse und Papierherstellung dienen. Eine nach diesen Prinzipien optimierte Lipase kann sowohl hohe Detergenzienkonzentrationen als auch hohe Temperaturen vertragen und ist deswegen in vielen Waschmitteln vorhanden. Die Leistungsfähigkeit der Methode ist erstaunlich: So hat man beispielsweise in einem der ersten Experimente aus vier ß-Lactamasen unterschiedlicher Organismen eine neue ß-Lactamase erzeugt, die ihrem bakteriellen Wirt eine 32.000fach höhere Resistenz gegen ß-Lactam-Antibiotika verlieh. Nun sind Bakterien, die resistenter gegen Antibiotika sind, nicht gerade das sinnvollste Ziel für die evolutive in-vitro-Optimierung, aber auch bei technisch einsetzbaren Enzymen gibt es mittlerweile viele beeindruckende Erfolge: Bei der Suche nach Gene shuffling: Unterschiedliche Versionen eines Gens können in vitro zu zahlreichen neukombinierten Varianten „vermischt“ werden, deren Produkte interessante neue Eigenschaften besitzen können. 107