Biotechnologie - Basis für Innovationen

Werbung
Bild- und Copyrightverzeichnis
Quelle
Aventis Crop Science, Lyon
Artemis Pharmaceuticals, Köln/Tübingen
Aventis S.A., Straßburg, Frankreich
Aventis Behring, Marburg
Aventis Research & Technologies, Frankfurt/M.
Associated Press, New York, NY, USA
Bancroft Library, University of California, Berkeley, CA, USA
Wilhelm Barthlott, Universität Bonn
BAYER AG, Leverkusen
Patrick Brown, Stanford University, CA, USA
Bundeskriminalamt, Wiesbaden
John Chadwick, Edinburgh, UK
Culver Pictures, New York, USA
Deutsches Krebsforschungszentrum, Heidelberg
ISB Informationssekretariat Biotechnologie,
DECHEMA e.V., Frankfurt/M.
Flaskamp GmbH, Berlin
Flad & Flad BioGene Communications, Eckental-Brand
Fresenius Medical Care, Bad Homburg
GDE Grafik Design Erdmann, Bonn
GSF Forschungszentrum für Umwelt und Gesundheit, München
Human Genome Sciences, Rockville, MD, USA
KEGG Kyoto Encyclopedia of Genes and Genomes, Kyoto, Japan
L’Usine Nouvelle, Paris
Max-Planck-Institut für Biochemie, München
J. Murken, E. Holinski-Feder, Medizinische Genetik LMU München
Novartis Deutschland GmbH, Nürnberg
RKI Robert-Koch-Institut, Berlin
U.S. Department of Energy, Washington D.C., USA
BMBF PUBLIK
PhotoDisc
Herausgeber
Bundesministerium für Bildung und Forschung (BMBF)
Referat Öffentlichkeitsarbeit
53170 Bonn
E-Mail: [email protected]
Internet: http://www.bmbf.de
Die Broschüre wurde im Auftrag des Bundesministeriums
für Bildung und Forschung erstellt. Der Autor trägt die Verantwortung für den Inhalt.
Autor
Dr. Rüdiger Marquardt, Informationssekretariat
Biotechnologie, DECHEMA e.V.
Stand
Mai 2000
Gedruckt auf Recyclingpapier
57,59,87,107
41
64
80
10-15,17
36
22
19
35
55
39
23,49,95
20
23
24,30,40,45,46,47,52,54(u.),60,62,65,68,94
Impressum
Gestaltung
MPC GmbH, München
Seite(n)
42-44,66,67,103
29
26,38,53
31
27
37
18
61
16,28,48,54
25,101
41
50
32
33
Biotechnologie
– Basis für Innovationen
Inhalt
Vorwort ..............................................................................................................7
Einführung ..........................................................................................................8
1.
Grundlagen .......................................................................................................10
1.1
Aus eins mach zwei, aus zwei mach vier
Die molekulare Genetik als Basis der modernen Biotechnologie ..........................10
Ein Gen fährt Taxi
Die Grundlagen der Gentechnik ...........................................................................14
Eile mit Weile
Sicherheitsbestimmungen in der Biotechnologie .................................................17
1.2
1.3
2.
Biotechnologie und moderne Medizin ..........................................................19
2.1
Ordnung ins Chaos
Einsichten in den Stoffwechsel einer Zelle ..........................................................19
Außer Kontrolle
Einsichten in die Entstehung von Krebs ...............................................................20
HUGO teilt die Karten aus
Die Bedeutung der Genomprojekte ......................................................................22
Von geizigen Genen und Biochips
Die Methode des Transcript-Imaging ...................................................................25
Vom Genom zum Proteom
Proteine sind die Aktivisten der Zelle ..................................................................27
Die Gleichheit der Gene
Transgene Tiere als Krankheitsmodelle ...............................................................28
Immer eine Nasenlänge voraus?
Der Wettlauf mit pathogenen Keimen .................................................................29
Mit Killerzellen gegen Tumore
Neue Waffen im Kampf gegen Krebs ...................................................................33
Von Differenzierung und Differenzen
Zellen als potenzielle Medikamente ....................................................................34
Heilen mit Genen
Die Somatische Gentherapie ...............................................................................36
Schnell und präzise
Die Möglichkeiten der genetischen Diagnostik....................................................38
Ein Fingerabdruck von den Genen
Jedes Genom ist einzigartig ................................................................................40
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
3.
Biotechnologie und moderne Landwirtschaft ..............................................42
3.1
Ein Bakterium als Lehrmeister
Moderne Züchtungsverfahren bei Pflanzen..........................................................42
Noch manche Nuss zu knacken
Moderne Pflanzenzucht und neue Lebensmittel ...................................................42
Made by ...
Die Kennzeichnung neuer Lebensmittel ...............................................................45
Vom Farmer zum Pharmer
Biotechnologie und moderne Tierzucht ................................................................47
Vom Klonen und Klonieren
Potent sein allein reicht nicht ..............................................................................48
3.2
3.3
3.4
3.5
4.
Biotechnologie und vieles mehr ....................................................................52
4.1
Biotechnologie und Umwelt
Statt Altlasten entlasten .....................................................................................52
Klassik und Moderne
Bewährte Domänen der Biotechnologie in neuem Glanz ......................................54
Plastik und Computerchips
Und immer noch Biotechnologie ..........................................................................55
4.2
4.3
5.
Biotechnologie und Wirtschaft ......................................................................57
5.1
Ein Feld für findige Firmen
Das Entstehen einer neuen Branche ....................................................................57
Die Claims werden abgesteckt
Patente auf biotechnische Erfindungen ...............................................................60
5.2
6.
Biotechnologie und Gesellschaft ..................................................................64
6.1
Wer nicht wagt ...
Risiken und ihre Wahrnehmung ...........................................................................64
Kreuz und quer?
Gene gehen auf Wanderschaft ............................................................................66
Prognosen sind schwierig ...
... besonders wenn sie in die Zukunft gerichtet sind.............................................67
6.2
6.3
Glossar ..............................................................................................................70
7.
Biotechnologie und Markt
Ausgewählte Produkte der Biotechnologie ..........................................................78
Vorwort
D
ie Globalisierung der Märkte mit einer spürbaren Verschärfung des internationalen Wettbewerbs ist die größte Herausforderung für unsere Wirtschaft zu Beginn des 21. Jahrhunderts. Ein
immer größer werdender Teil der globalen Produktion wird auf dem Weltmarkt gehandelt. Dies gilt
im besonderen Maße für den Pharma-, Chemie- und den Agrarsektor. Multinationale Unternehmen
sind bestrebt, an allen regionalen Märkten der Welt durch eigene Produktionsstätten vertreten zu
sein. Der Produktion folgt die Forschung. Dies ist nicht als Resultat ungünstiger inländischer
Standortbedingungen zu interpretieren. Es wird darauf ankommen, auch in Deutschland Bedingungen zu sichern und auszubauen, die ausländische Investitionen in Produktion, Forschung und
Entwicklung anziehen. Dazu zählen – neben anderen Rahmenbedingungen – eine hoch differenzierte und leistungsfähige Forschungslandschaft, ein guter Bildungsstand der Bevölkerung, hochqualifizierte Arbeitskräfte mit Schlüsselqualifikationen für den Innovationsprozess und ein positives Gründungsklima.
Globalisierung bedeutet aber auch: Neue Chancen, neue Märkte, neue Produkte durch Förderung
von Wettbewerb und internationaler Arbeitsteilung. Die Biotechnologie wird dabei weltweit
erheblich zum Strukturwandel beitragen. Die Entwicklung neuer Methoden und Verfahren in der
Biomedizintechnik, der Biomaterialforschung, der Pharmazeutischen und Chemischen Industrie,
der Lebensmittelindustrie, bei der Schadstoffbekämpfung, Müllbeseitigung und Abwasserreinigung, die Erforschung neuer Energiequellen und nachwachsender Rohstoffe – um nur einige
Anwendungsfelder zu nennen – wird neue Arbeitsplätze entstehen lassen.
Speziell in der sogenannten „grünen“ Gentechnik, also im Bereich der Lebensmittelproduktion
und in der Landwirtschaft, muss allerdings noch viel Aufklärungsarbeit geleistet werden. Studien
belegen, dass vermehrtes Wissen über Gentechnik nicht zwangsläufig zu besserer Akzeptanz
führt. Bei größerem Wissen erfolgt die Bewertung jedoch differenzierter. In der Regel wird die
Biotechnologie vor allem in jenen Bereichen positiv eingeschätzt, wo ein tatsächlicher Nutzen
(z.B. für die Gesundheit und die Umwelt) unmittelbar ersichtlich und die Wahlfreiheit der Verbraucherinnen und Verbraucher sichergestellt ist. Die Kennzeichnung gentechnisch veränderter
Produkte ist dabei eine Voraussetzung für eine freie und bewußte Wahl eines Produktes und damit
für dessen Akzeptanz. Die Bundesregierung wird sich an diesem Dialog – unter Berücksichtigung
der gebotenen ethischen, umweltschonenden und rechtlichen Aspekte – beteiligen. Die vorliegende Broschüre stellt hierzu einen Beitrag dar.
Edelgard Bulmahn
Bundesministerin für Bildung und Forschung
7
Einführung
D
ie Biotechnologie hat in den vergangenen drei Jahrzehnten eine erstaunliche Renaissance
erfahren. Biotechnische Anwendungen haben den Menschen zwar schon seit Jahrtausenden
begleitet und ihn mit Nahrung, Kleidung und Behausung versorgt. Sie waren damit eine wichtige
Grundlage nicht zuletzt auch für seine kulturelle Entwicklung. Doch erst mit dem wachsenden
Wissen um den zellulären Aufbau der Organismen und um die Verwertbarkeit ihrer Stoffwechselprodukte entwickelte man auch technische Verfahren, die nicht mehr in erster Linie landwirtschaftlich ausgerichtet waren. Dazu gehört z.B. die Herstellung von Antibiotika durch eine kontrollierte Züchtung von Mikroorganismen. Neben Antibiotika sind auch viele andere Produkte des
mikrobiellen Stoffwechsels interessant, z.B. Substanzen wie Zitronensäure, Aminosäuren oder
Vitamine. Selbst hoch entwickelte Organismen wie die Säugetiere bieten sich der Biotechnologie
als Reservoir für die Gewinnung interessanter Stoffe an. Denken wir in diesem Zusammenhang
nur an die klassische Isolierung von Insulin aus den Bauchspeicheldrüsen von Rindern und
Schweinen.
Schließlich haben sich mit der Verfügbarkeit neuer Methoden, insbesondere der Gentechnik, ganz
neue Einsichten und Möglichkeiten eröffnet. Dieses häufig als „moderne Biotechnologie“
umschriebene Forschungs- und Anwendungsfeld entstand in der Mitte des letzten Jahrhunderts
und hat immer schneller an Bedeutung gewonnen. Von vielen Wissenschaftlern und Wirtschaftsexperten wird die Biotechnologie daher als Schlüsseltechnologie für die nächsten Jahrzehnte
bezeichnet. Sie hat uns bereits eine Fülle an neuem Wissen und zahlreiche neue Produkte
gebracht. Über ihre klassischen Domänen hinaus hat sich die Biotechnologie neue kommerzielle
Anwendungen erobert und zieht innovative Wissenschaftler aus vielen unterschiedlichen Bereichen an.
Diese Entwicklung hat auch dazu geführt, dass die Definition der Biotechnologie immer mehr an
Schärfe verloren hat. Von der Europäischen Föderation Biotechnologie (EFB) wurde noch Ende der
70er Jahre eine allgemein akzeptierte Definition gegeben, die Biotechnologie als rein anwendungsorientiert beschrieb. Sicherlich ist und bleibt die Biotechnologie anwendungsorientiert,
aber sie hat sich auch in viele neue, forschungsorientierte Felder hineinentwickelt. Diesen vielen
unterschiedlichen Facetten der Biotechnologie kann man nur mit einer breiteren Definition
gerecht werden. Ganz allgemein lässt sie sich beschreiben als den Umgang mit biologischen Systemen und biologischer Information in Forschung und Anwendung.
Gerade an den modernen Anwendungen der Biotechnologie entzünden sich immer wieder heftige
Diskussionen. Aus neuen Erkenntnissen entwickeln sich für manche allzu schnell neue Handlungsoptionen. Diese Handlungsoptionen können als Chance, aber auch als Belastung empfunden
werden. Der Umgang mit dem neuen Wissen ist also nicht immer einfach und seine Anwendung ist
nicht immer unumstritten.
Im medizinischen Sektor ist die Biotechnologie allerdings fest etabliert und anerkannt. Medikamente aus biotechnischer Produktion erweitern heute ganz selbstverständlich die therapeutischen Möglichkeiten der Medizin. Neue Heilverfahren, die sich aus den neuen Erkenntnissen der
Biotechnologie ergeben, werden weltweit erprobt. Verbesserte Diagnosen weisen den Weg zu einer
8
individualisierten, auf den einzelnen Patienten zugeschnittenen Therapie. Andererseits stellt uns
der medizinische Fortschritt mit seinem Wissenszuwachs auch vor neue Herausforderungen, mit
denen wir besonnen umgehen müssen. Es sei hier nur auf den Umgang mit dem Wissen verwiesen,
das sich aus den verschiedenen Genomprojekten ergibt.
Besonders heftige Auseinandersetzungen lösen die biotechnischen Neuerungen im Bereich der
Landwirtschaft aus. Die Produkte erscheinen vielen angesichts des Überflusses in den Industrienationen als unnötig. Weder der Wissenschaft noch der Industrie ist es bisher gelungen, die Vorteile der neuen biotechnischen Produkte auch für die breite Bevölkerung erfahrbar und nachvollziehbar zu machen. Die hier im Zusammenhang mit der Biotechnologie gesehenen Problemstellungen werden oft auch zum Anlass genommen, um unser Verhältnis zur belebten Natur insgesamt
zu diskutieren und unterschiedliche Lebensentwürfe einander gegenüberzustellen.
Über die wissenschaftlichen Herausforderungen hinaus bietet die Biotechnologie deshalb noch
immer Stoff für eine breite gesellschaftliche Diskussion. Diese Broschüre soll auch dem Nichtfachmann einen Einstieg in die aktuellen Entwicklungen der Biotechnologie erlauben. Sie widmet
sich dabei den wissenschaftlichen Grundlagen ebenso wie einer Diskussion aktueller und potenzieller Anwendungen. Am Ende der Broschüre werden außerdem die wichtigsten Produkte zusammengestellt, die unter Verwendung der neuen Verfahren bereits hergestellt werden.
9
Grundlagen
1. Grundlagen
1.1 Aus eins mach zwei, aus
zwei mach vier
Die molekulare Genetik als Basis der
modernen Biotechnologie
Die DoppelhelixStruktur der DNA ist
zum Symbol für die
moderne Biotechnologie geworden.
Schon die ersten biotechnischen Anwendungen griffen auf die Stoffwechselleistungen von Tieren, Pflanzen und Mikroorganismen zurück. Dabei entwickelte
sich aus einer eher zufälligen eine mehr und mehr
systematisierte und optimierte Nutzung. Tiere und
Pflanzen wurden schon bald gezielt gezüchtet. Für
ein detaillierteres Verständnis der mikrobiellen
Stoffwechselleistungen
musste aber erst noch
eine ganze Reihe wichtiger Entdeckungen und Erfindungen in ganz unterschiedlichen Disziplinen
gemacht werden. Man
denke nur an das Mikroskop, mit dessen Hilfe die
Mikroorganismen
erstmals sichtbar wurden.
Immer tiefer drang die
Wissenschaft schließlich
in die Zellen hinein und
zerlegte sie in ihre Einzelbausteine. Das Bestreben, auch die Regeln zu verstehen, nach denen die Merkmale und das Leistungsvermögen von Organismen auf die Nachkommen vererbt werden, führte schließlich zu einem Wissenschaftszweig, den wir heute als Genetik bezeichnen.
Die Entwicklung der klassischen Genetik ist
unmittelbar mit dem Namen Gregor Mendel verknüpft.
Mendel hat als Erster erkannt, dass die Eigenschaften
von Organismen nach bestimmten Mustern auf die
Nachkommen vererbt werden. Er hat daraus den kühnen Schluss gezogen, dass diesen Eigenschaften „Erbfaktoren“ zugrunde liegen, die über die Keimzellen
weitergegeben und neu kombiniert werden.
Es hat allerdings bis in die Mitte des 20. Jahrhunderts gedauert, bis den von Mendel vermuteten
10
Erbfaktoren eine stoffliche Basis zugeordnet werden
konnte. Avery und seine Mitarbeiter wiesen durch ihre
Experimente im Jahr 1944 erstmals nach, dass Desoxyribonukleinsäure für die Übertragung vererbbarer
Eigenschaften verantwortlich ist. Diese chemische
Substanz war bereits im Jahr 1868 von Friedrich Miescher aus weißen Blutkörperchen isoliert und beschrieben worden. Aber erst mit der Entdeckung von Avery
rückte sie in den Mittelpunkt wissenschaftlichen Interesses.
Durch viele andere Experimente wurde der
Zusammenhang von vererbbaren Eigenschaften und
Desoxyribonukleinsäure rasch bestätigt. Allerdings
konnten diese Versuche zunächst nur mit einfachen
Organismen, meist Mikroorganismen wie Bakterien
und Hefen, durchgeführt werden. Unklar blieb daher,
ob die Desoxyribonukleinsäure, die international mit
DNA (für englisch: Deoxyribonucleic acid) abgekürzt
wird, auch bei höheren Organismen als einziger Träger
der Erbinformation fungiert.
Und wenn ja, wie sollte man dann die gewaltigen Unterschiede zwischen den verschiedenen Arten
erklären? Man wusste zu diesem Zeitpunkt schon,
dass die DNA aus den unterschiedlichsten Quellen –
vom Mikroorganismus bis zum Menschen – chemisch
immer gleich aufgebaut ist. Sie enthält nur wenige,
exakt beschreibbare Grundbausteine, so genannte
Nukleotide. Wie sollten diese immer gleichen Grundbausteine für die Vererbung von so dramatisch unterschiedlichen Merkmalen verantwortlich sein?
Der Grundstein für die Beantwortung dieser Fragen wurde durch die Aufklärung der DNA-Struktur
gelegt. Die Interpretation der Strukturdaten gelang
den Wissenschaftlern James D. Watson und Francis
Crick im Jahr 1953. Dies läutete gemeinsam mit den
zuvor erwähnten Experimenten von Avery das Zeitalter
der modernen Genetik ein und sollte sich als gewaltiger Schub für die Biotechnologie entpuppen.
Grundlagen
Erklärung der DNA-Struktur
Die Strukturdaten belegten, dass in der DNA eine
strikte Ordnung eingehalten wird. Die chemischen
Grundkomponenten bilden vier zentrale Grundbausteine aus, die man Nukleotide nennt. Diese Nukleotide sind in einer schier endlosen Kette und in einer
scheinbar wahllosen Abfolge miteinander verbunden.
Man denke sich ein Seil, aus dem in regelmäßiger
Abfolge rote, grüne, blaue oder gelbe Stäbe herausstehen, wobei die jeweilige Farbe zufällig ist.
Entscheidend ist nun, dass ein DNA-Molekül aus
zwei solcher „Seile“ besteht. Man spricht deshalb
auch von einem Doppelstrang. Die „Seile“ haben
zueinander eine genau definierte Anordnung. Man
kann gedanklich das eine Seil so auf den Boden legen,
dass alle Stäbe in eine Richtung zeigen. Legt man jetzt
das zweite Seil derart daneben, dass die Enden der
Stäbe aneinander grenzen, dann muss ein exakter
Farbcode eingehalten werden. Dort, wo aus dem einen
Seil ein roter Stab heraussteht, muss aus dem anderen
Seil ein grüner herausstehen. Dort, wo aus dem einen
Seil ein gelber Stab heraussteht, muss aus dem anderen ein blauer herausstehen.
Um das Gedankenexperiment zu vervollständigen, kann man sich am Ende eines jeden Stabes eine
Art gerichtete Punktladung vorstellen. Dadurch sollen
sich die roten und grünen bzw. gelben und blauen Stäbe
gegenseitig anziehen. Selbst wenn die einzelnen Anziehungskräfte nur gering sind, wird durch ihre Addition ein sehr fester Zusammenhalt der beiden Seile
resultieren. Genau das ist in der DNA – vermittelt durch
so genannte Wasserstoff-Brückenbindungen – der Fall.
Wenn wir in unserem Gedankenexperiment jetzt
eines der Seile ergreifen und vom Boden hochheben,
dann wird das andere mit angehoben. Die rotgrünen
bzw. gelbblauen Paare von Stäben sind zwischen den
beiden Seilen angeordnet wie die Sprossen einer
Strickleiter. Mit dem großen Unterschied allerdings,
dass diese Sprossen nicht durchgängig sind, sondern
in der Mitte eine Art Sollbruchstelle haben. Als Fallreep wäre eine solche Strickleiter denkbar ungeeignet.
Der DNA-Doppelstrang verläuft auch nicht etwa
geradeaus wie ein Fallreep, das an der Bordwand
eines Schiffes hängt. Vielmehr ist er in sich verdreht
und besonders in höheren Organismen durch Wechselwirkung mit unterschiedlichen Proteinen sehr stark
komprimiert.
Die strukturellen Besonderheiten der DNA wurden sofort als zentrale Grundlage der Vererbung
erkannt. Die DNA liegt als ein Doppelstrang vor, dessen Einzelstränge über eine Vielzahl von Wechselwirkungen zusammengehalten werden. Und das Entscheidende dabei: Trennt man die beiden Stränge voneinander, dann kann jeder Einzelstrang durch sukzessives Aneinanderfügen von Grundbausteinen wieder zu
einem Doppelstrang ergänzt werden. Aufgrund vorgegebener strikter Paarungsregeln muss dieser Doppelstrang wieder exakt dem Ausgangs-DNA-Molekül entsprechen. Aus eins mach zwei, aus zwei mach vier...
Wenn sich eine Zelle teilt, passiert genau das
oben Beschriebene. Die DNA-Doppelhelix wird aufgetrennt und zu jedem Einzelstrang wird der Gegenstrang
ergänzt. Wenn die beiden identischen DNA-Moleküle
in der Zelle vorliegen, kann an die Tochterzellen exakt
die gleiche Erbinformation weitergegeben werden.
Und so weiter und so weiter. Aus vier mach acht, aus
acht mach sechzehn...
Mutationen
Ganz exakt ist die Natur bei der Weitergabe genetischer Information allerdings nicht. Wir wissen heute –
nicht zuletzt durch die Untersuchungen und Überlegungen des deutschen Nobelpreisträgers Manfred
11
Die Regeln der Paarbildung erlauben
eine identische Verdopplung der DNA:
Adenin paart mit
Thymin, Guanin mit
Cytosin.
Jahren zu klären und
stellte sich als sehr
vertraut heraus.
Denn die DNA
verwendet die Nukleotide, die wir als Grundbausteine der DNA
kennen gelernt haben,
wie die Buchstaben
eines Alphabets. Damit kommt der scheinbar so wahllosen Abfolge der Nukleotide in
einem DNA-Strang auf
einmal eine ganz entscheidende, ja die entscheidende Bedeutung
zu.
Reissverschlussprinzip: Die Information der DNA wird
abgerufen.
Eigen –, dass sie bei der Weitergabe der Erbinformation immer auch einen gewissen Anteil an Fehlern, so
genannten Mutationen, zulassen muss. Denn nur so
können neue, veränderte Eigenschaften entstehen.
Schon Darwin hatte im 19. Jahrhundert postuliert,
dass vererbbare Eigenschaften einer natürlichen Auslese unterliegen, der Selektion. Gäbe es in diesen vererbbaren Eigenschaften keine Veränderungen, dann
wären sie immer gleich und es könnte nichts selektiert
werden. Die Natur balanciert mit der Häufigkeit von
Mutationen auf einem sehr schmalen Grat. Auf der
einen Seite droht beim Fehlen selektierbarer Individuen der Untergang ganzer Arten, wenn sich drastische
Veränderungen der Lebensbedingungen ergeben. Als
Beispiel wird hier gerne das Aussterben der Dinosaurier angeführt. Auf der anderen Seite droht beim Auftreten zu vieler veränderter Individuen das Verschwinden
der arteigenen Merkmale. Bei zu vielen veränderten
Individuen wäre kaum noch zu klären, was nun eigentlich verändert und was unverändert ist. Das Leben bietet sich uns in seinen heutigen Erscheinungsformen
deshalb so dar, weil sich im Laufe der Evolution ein
bestimmtes Optimum in der Häufigkeit von Mutationsereignissen eingestellt hat.
Das Prinzip der Weitergabe genetischer Information an die Nachkommen hatte sich aus der Struktur
der DNA also elegant ableiten lassen. Aber wie ist
denn nun die Erbinformation in der DNA gespeichert?
Man kann sich vorstellen, dass die Wissenschaftler sehr intensiv um die Aufklärung dieser spannenden
Frage gerungen haben. Das Bild begann sich in den 60er
12
Der genetische Code
Mit den vier unterschiedlichen Nukleotiden in der DNA
stehen zunächst einmal nur vier Buchstaben zur Verfügung. Zwar kann man aus vier Buchstaben, z.B. den
Buchstaben l, e, i und b, unterschiedliche Wörter formen. Denken wir an die Wörter Beil, lieb, Liebe, Bibel
und noch ein paar mehr. Aber man würde wohl keine
besonders ausdrucksvolle Sprache entwickeln können,
die auf nur vier Buchstaben beruht.
Auch die Natur braucht ein paar Buchstaben
mehr, um ihre vielfältigen Inhalte zu definieren. Sie
bedient sich hierzu eines Tricks. Nicht jedes einzelne
Nukleotid lässt sie als Buchstaben gelten. Vielmehr
müssen drei Nukleotide aufeinander folgen, um einen
aussagekräftigen Buchstaben zu ergeben. Je nach Art
und Abfolge der jeweiligen drei Nukleotide resultieren
daraus unterschiedliche Buchstaben. Weil ein solcher
Buchstabe aus jeweils drei Nukleotiden besteht, bezeichnet man ihn als Triplett.
Durch diesen einfachen Kunstgriff stehen jetzt
64 Tripletts zur Verfügung. So viele Buchstaben benötigen wir in unserer Sprache längst nicht, um zu einer
praktisch unerschöpflichen Vielfalt an Aussagen zu
gelangen. Uns genügen 26. Auch die Natur bedient
sich an anderer Stelle einer Sprache, die sogar nur auf
20 Buchstaben zurückgreift.
Auf diese zweite Sprache treffen wir bei den
unersetzlichen „Funktionsträgern“ der Zelle, den
Grundlagen
Eiweißstoffen oder Proteinen. Eiweißstoffe setzen
sich aus zwanzig verschiedenen Einzelkomponenten,
den Aminosäuren, zusammen. In der DNA sind die
Bauanleitungen für diese Eiweißstoffe verschlüsselt.
Einem Triplett in der DNA, also einer Abfolge von
jeweils drei Nukleotiden, ist eine bestimmte Aminosäure im korrespondierenden Eiweiß zugeordnet. Aufeinander folgende Tripletts in der DNA lassen damit
eine eindeutige Vorhersage auf die Abfolge von Aminosäuren in einem Protein zu. Die Anordnung der Tripletts in der DNA legt also die Abfolge von Aminosäuren in Proteinen eindeutig fest. Und diese Abfolge
von Aminosäuren wiederum entscheidet darüber, welche Funktion von einem Protein ausgeübt wird. Dies ist
der entscheidende Einblick, den die moderne Genetik
gewonnen hat. Wegen der unterschiedlichen Anzahl
von Tripletts und Aminosäuren ist die Zuordnung nur in
der eben genannten Richtung eindeutig. Umgekehrt
können einer Aminosäure bis zu sechs verschiedene
Tripletts zugeordnet sein.
Proteine können aus einer stark variierenden Anzahl von Aminosäuren bestehen. Für jedes einzelne
Protein ist diese Anzahl allerdings genau festgelegt.
Beispielsweise besteht das Protein Insulin aus zwei
sehr kurzen Ketten von Aminosäuren, die eine ist 21,
die andere ist 30 Aminosäuren lang. Diese
zwei Ketten erkennen
sich und bilden gemeinsam das funktionale Insulin-Molekül.
Dagegen besteht das
Protein Faktor VIII, das
bei der Blutgerinnung
eine wichtige Rolle
spielt, aus nur einer
Kette, aber immerhin
aus 2.331 Aminosäuren. Außerdem ist es
noch mit Zuckerresten
verknüpft. Es gibt bei
Proteinen also ganz
unterschiedliche Größen und Zusammensetzungen.
Wenn Proteine eine definierte Größe haben,
dann müssen die Ketten von Aminosäuren, aus denen
die Proteine aufgebaut sind, einen definierten Anfang
und ein definiertes Ende haben. Man kann sich daher
fragen, ob auch der Anfang und das Ende einer Aminosäurekette von der DNA festgelegt werden. Das ist
tatsächlich so. Die DNA verfügt mit ihren 64 Tripletts
über mehr Buchstaben als sie braucht, um die 20 Aminosäuren der Proteine zu bestimmen. Teilweise benutzt
sie ja sechs verschiedene Tripletts für nur eine
Aminosäure. Daher ist es kein Problem, mit einigen
ausgewählten dieser Tripletts statt einer konkreten
Aminosäure den Anfang oder das Ende der Aminosäurekette zu signalisieren.
Von der DNA zum Protein führt in der lebenden
Zelle kein direkter Weg. Stattdessen wird die Information der DNA auf ein Botenmolekül übertragen,
die so genannte Boten-RNA oder mRNA. Von diesem
Botenmolekül wird die Information dann dorthin transportiert, wo sie gebraucht wird. Und gebraucht wird
sie als Bauanleitung dort, wo die Proteine aus den einzelnen Aminosäuren zusammengesetzt werden. Dies
geschieht in der Zelle an spezialisierten Strukturen,
den so genannten Ribosomen. Das eingesetzte Botenmolekül ist der DNA eng verwandt aber beweglicher,
weil es nur einzelsträngig und viel kürzer ist als die
DNA. Zur Synthese des Botenmoleküls wird die DNA
im Bereich eines Gens an ihren „Sollbruchstellen“
geöffnet, ähnlich wie ein Reißverschluss. Die Information wird dadurch zugänglich und kann auf das Botenmolekül übertragen werden. Von diesem wird sie
Wie am Fließband:
An den Ribosomen
wird die genetische
Information in die
Aminosäuresequenz
von Proteinen übersetzt.
dann zu den Ribosomen transportiert und dort bei der
Proteinsynthese verwendet.
In der DNA wird nicht jedes Nukleotid allein als
Buchstabe verwendet. Vielmehr werden drei aufeinander folgende Nukleotide zu einem Buchstaben zusammengefasst. Auch wenn dieser Kunstgriff an sich
einfach erscheint, so war doch eine ganze Menge an
13
Grundlagen
Präzisionsarbeit:
Restriktionsenzyme
zerlegen die DNA
in handhabbare
Bruchstücke.
intelligenten Überlegungen und Experimenten notwendig, um diesen genetischen Code zu knacken. Zusammen mit vielen anderen Wissenschaftlern haben
Marshall Nirenberg und H. Gobind Khorana dadurch
einen weiteren Meilenstein in der Entwicklung der
modernen Genetik geschafft.
Weil die Buchstaben in der DNA aus drei aufeinander folgenden Nukleotiden bestehen, werden sie
auch als Tripletts bezeichnet. Die Reihenfolge der
Tripletts in der DNA bestimmt letztlich über Gestalt
und Funktion der Eiweißmoleküle in einer Zelle. Der
zugrunde liegende Mechanismus ist recht komplex,
mittlerweile aber genauestens verstanden. In der DNA
ist festgelegt, welche Eiweißmoleküle eine Zelle bilden kann. Dies ist sicher nicht ihr einziger Informationsgehalt. Nach unserem heutigen Wissensstand ist
es aber die wichtigste Information, die von der DNA
bei der Vererbung weitergegeben wird.
Nach diesem Parforce-Ritt durch die Erkenntnisse moderner Genetik haben wir bereits das Rüstzeug erworben, um den zentralen Begriff der Genetik
zu verstehen: das Gen. Unter einem Gen versteht man
einen Abschnitt auf der DNA, der ein Eiweißmolekül
bestimmter Größe und Funktion definiert. Wenngleich
der Begriff des Gens damit ein wenig eng gefasst ist,
trifft er doch den Kern der Sache.
So wie die Struktur der DNA bei allen Lebewesen gleich ist, so ist auch das Prinzip der Informationsspeicherung und Umsetzung im Laufe der Evolution
wenig verändert worden. Zwar haben sich im Detail
14
einige nicht unerhebliche Wandlungen vollzogen, doch
bleiben diese als Variationen eines Themas klar
erkennbar.
Das heißt: Genetische Information wird im Prinzip von allen Lebewesen auf die gleiche Weise vererbt.
Sie wird außerdem von allen Lebewesen auf die gleiche Art und Weise umgesetzt. Hinter diesen Erkenntnissen verbirgt sich nun aber nichts Geringeres als die
Voraussetzung für das, was wir heute als Gentechnik
bezeichnen. Gene können aus beliebigen Organismen
isoliert und von beliebigen anderen Organismen in das
entsprechende Eiweißmolekül umgesetzt werden.
1.2 Ein Gen fährt Taxi
Die Grundlagen der Gentechnik
Die Gentechnik hat sich nicht etwa zielgerichtet entwickelt. Die Kenntnis der molekularen Zusammenhänge zwischen DNA und Eiweißmolekülen war nur
ein Mosaikstein, der für die eher zufällige Entwicklung
der Gentechnik nötig war. Zwei weitere sollen hier
noch kurz Erwähnung finden.
Die DNA ist ein in molekularen Dimensionen riesiges Molekül. Beim Menschen schätzt man die Länge
der Strickleiter auf rund drei Milliarden „Sprossen“.
Die Zahl seiner Gene wurde lange Zeit auf etwa
100.000 geschätzt und mit Auswertung des Anfang
2000 auf vollen Touren laufenden Genomprojektes –
siehe Kapitel 2.3 – auf rund 140.000 erhöht. Bei dieser
Größe wundert es nicht, dass die genetische Gesamtinformation, das Genom, in einzelne Portionen aufgeteilt
ist. Diese sind uns als Chromosomen bestens bekannt
(dass Chromosomen nicht nur aus DNA bestehen, sondern viel komplexer aufgebaut sind, muss hier nicht
weiter interessieren). Für die Gentechnik sind diese
Portionen aber immer noch viel zu groß. Will man
bestimmte Gene von einem Organismus auf einen
anderen übertragen, muss man die DNA erst noch in
sehr viel kleinere Stücke zerlegen. Dafür braucht man
geeignete Werkzeuge. Dankenswerterweise werden
uns diese wieder einmal von der Natur selbst zur Verfügung gestellt. Nur finden muss man sie.
Machen wir einen kurzen Ausflug in die Bakteriengenetik. So wie menschliche Zellen von Viren befallen werden können, so werden auch viele Bakterien
von Viren attackiert, den Bakteriophagen. Manche
Bakterien verfügen nun über einen interessanten
Mechanismus, der sie vor Angriffen solcher Bakterio-
Grundlagen
phagen schützt. Sie spalten einfach die Erbinformation, die von den Bakteriophagen bei der Attacke in die
Bakterienzellen eingeschleust wird, in kleinere Fragmente. Die Untersuchung dieses Phänomens führte zur
Entdeckung von Enzymen, die DNA an ganz genau definierten Stellen spalten können. Man bezeichnet
diese Enzyme als Restriktionsenzyme. Aus dem ursprünglich riesigen DNA-Molekül werden dadurch in
reproduzierbarer Weise kleine, handhabbare Fragmente. Damit war eine weitere wichtige Voraussetzung für
die Gentechnik geschaffen. Heute verfügen die Gentechniker über ein großes Repertoire an Enzymen, die
DNA zerlegen, zusammenfügen, auf- und abbauen
können. Diese Reaktionen lässt man dann meist nicht
mehr in Zellen ablaufen, sondern arbeitet mit den isolierten Komponenten außerhalb der Zellen in kleinen
Reaktionsgefäßen oder, wie die Fachleute sagen, in
vitro.
Sehr hilfreich sind auch kleine DNA-Portionen,
die man häufig in Bakterien antrifft. Diese so genannten Plasmide werden von Gentechnikern gerne verwendet, weil sie über interessante und hilfreiche
Eigenschaften verfügen. Sie erlauben es, fremde DNA
in Zellen hineinzubringen und dort stabil zu vermehren.
Daher werden Plasmide häufig auch als Gen-Taxis
bezeichnet.
Plasmide als Werkzeuge der Gentechnik
Die Plasmide sind kleine, selbstständige Einheiten
genetischer Information, die unabhängig vom eigentlichen Genom in einer Bakterienzelle existieren können. Dazu bringen sie eine besonders wertvolle Eigenschaft mit, und zwar die, von Bakterienzellen auf die
Nachkommen vererbt zu werden.
Der Teilung einer Bakterienzelle geht die Verdopplung der genetischen Information voraus, damit
beide Tochterzellen später auch wissen, was sie zu tun
haben. Der bereits kurz erwähnte Mechanismus der
DNA-Verdopplung wird von der Zelle dabei genauestens kontrolliert. Um diese Kontrolle zu ermöglichen,
gibt es auf der DNA nur wenige Stellen, von denen aus
die Verdopplung starten kann. Das Vorhandensein mindestens eines solchen Startpunkts ist andererseits
zwingend erforderlich, wenn die DNA verdoppelt werden soll. Für die Gentechniker gibt es daher zwei Möglichkeiten, wenn sie fremde DNA in einer Zelle und
deren Nachkommen erhalten möchten. Entweder wird
die fremde DNA mit der Gesamt-DNA der Wirtszelle
verbunden und von dieser dann als Einheit behandelt
und vererbt. Oder man platziert die fremde DNA wie
einen winzigen Satelliten neben das Genom der Wirtszelle. In diesem Fall muss dann aber dafür gesorgt
sein, dass auch ein Startpunkt für die Verdopplung der
fremden DNA vorhanden ist. Hier kommen die Plasmide ins Spiel.
Plasmide verfügen oft nur über wenige Gene,
beherrschen dafür aber die eigene Verdopplung besonders gut. Sie begnügen sich häufig nicht damit, so wie
das bakterielle Genom in nur einer Ausfertigung in der
Zelle vorzuliegen. Es können vielmehr bis zu mehrere
Hundert solcher Moleküle in einer Zelle vorhanden
sein. Bei der Teilung einer Bakterienzelle werden die
Plasmide mehr oder weniger gleichmäßig auf die beiden Tochterzellen verteilt. Wenn man es also schafft,
die fremde DNA mit einem solchen Plasmid zu verbinden, dann hat man damit eine weitere Möglichkeit, die
fremde DNA in einer Bakterienzelle und ihren Nachkommen zu erhalten. Wie das im Einzelnen geschieht,
wird in der Abbildung S.17 genauer erläutert.
Noch eine andere wichtige Eigenschaft bringen
viele Plasmide mit. Sie tragen Resistenzgene, die
dafür sorgen, dass ihre Wirtszellen gegen bestimmte
Antibiotika unempfindlich werden. An dieser Eigenschaft kann man daher Bakterien leicht erkennen, die
ein entsprechendes Plasmid beherbergen. Hier wird
die schon zitierte harte Auslese, die Selektion, von
den Wissenschaftlern gezielt eingesetzt. Wird ein
bestimmtes Antibiotikum dem Medium zugegeben, in
dem die Bakterien wachsen, dann überleben nur die
mit einem entsprechenden Plasmid und Resistenzgen.
Wenn man ein solches Plasmid mit einem interessant erscheinenden Gen aus anderer Quelle verbindet, dann hat man die Einheit vor sich, mit der Gentechniker tagtäglich umgehen. Die verwendeten Plasmide sind dabei mittlerweile auf die speziellen Bedürfnisse der Gentechnik zugeschnitten worden.
Nun muss die außerhalb der Zellen neu
zusammengefügte DNA – die rekombinierte oder
rekombinante DNA – in die gewünschten Zielzellen
eingeschleust werden. Und das kann sich durchaus als
Problem erweisen. Wie sich herausstellte, hat Avery
bei der Entdeckung der DNA als Träger der Erbinformation ziemlich viel Glück gehabt. Er arbeitete
mit Bakterien, die über eine natürliche Fähigkeit zur
Aufnahme von DNA verfügen. Diese Fähigkeit haben
nur wenige Bakterien – und andere Organismen schon
15
Auch Plasmide
können mit Restriktionsenzymen an
definierten Stellen
geöffnet werden.
Grundlagen
Hilfreicher Winzling: Ein Plasmid
(Pfeil) ist sehr klein
im Verhältnis
zum Genom einer
Bakterienzelle.
gar nicht. Man muss sich daher einiges einfallen lassen, um die außerhalb der Zellen zusammengebaute
DNA in die Zielzellen hineinzubekommen.
Hierfür werden ausgeklügelte Verfahren eingesetzt. Besonders beliebt ist heute die Elektroporation,
bei der die Zielzellen in einem elektrischen Feld mit der
DNA zusammengebracht werden. Daran war zu Beginn
der Gentechnik freilich noch längst nicht zu denken.
Man hatte aber bereits in der klassischen Genetik einiges über Systeme des DNA-Transfers gelernt. Auch die
Natur verfügt über eine ganze Reihe von Möglichkeiten, um DNA zwischen – meist verwandten – Organismen auszutauschen. Daher konnte man bereits Anfang
der 70er Jahre bestimmte Bakterien so behandeln,
dass sie zur Aufnahme externer DNA fähig waren. Die
Bühne für den ersten richtigen gentechnischen Versuch war frei.
Sollte es tatsächlich möglich sein, DNA aus
unterschiedlichen Quellen miteinander zu verbinden
und dieses gezielt hergestellte DNA-Molekül dann von
Bakterienzellen vermehren und vererben zu lassen? Zu
den Wissenschaftlern, die sich diese Frage stellten,
gehörten auch Stanley Cohen und Herbert Boyer. Die
Antwort, die sie durch ihre Experimente erhielten, war
positiv.
Eine Bakterienzelle unterscheidet ein natürlich
vorkommendes Plasmid nicht von einem, in das die
Forscher ein fremdes Stück DNA eingebaut haben.
Solange die normalerweise vorhandenen Funktionen
des Plasmids nicht beeinträchtigt sind, wird auch das
gentechnisch veränderte Plasmid stabil weitervererbt.
Und mehr noch. Wenn sich auf dem künstlich eingefügten DNA-Fragment ein funktionsfähiges Gen befindet, dann wird dieses von der Bakterienzelle auch in
das zugehörige Eiweiß umgesetzt. Ganz egal, woher
das fremde Gen stammt. Allerdings mit gewissen
anderen Einschränkungen.
16
Einschränkungen bei der Umsetzung
genetischer Information
Wir hatten ein Gen definiert als Abfolge von Tripletts
in der DNA, die zur Synthese eines Proteins definierter
Größe und Funktion führt. Diese Abfolge von Tripletts
wird häufig auch als Strukturgen bezeichnet. Im Aufbau dieses Strukturgens gibt es einen wesentlichen
Unterschied zwischen Bakterien – den so genannten
Prokaryonten – und den meisten anderen Organismen
– den höher entwickelten Eukaryonten. Bei Bakterien
beginnt die Abfolge der Tripletts an einem bestimmten
Punkt der DNA und läuft dann quasi ohne Strich und
Komma bis zum Ende des Gens durch. Bei Eukaryonten
hingegen finden sich innerhalb eines Gens oft lange
Einschübe, die mit dem entstehenden Protein nichts zu
tun haben. Eine Eukaryontenzelle macht sich die
Mühe, das ganze Gen mitsamt dieser Einschübe
zunächst in das Botenmolekül zu übersetzen und die
Einschübe erst dann aus dem Botenmolekül zu entfernen. Für die Wissenschaft ist das ein interessantes, für
die Bakterien ein unlösbares Problem.
Eine Bakterienzelle kennt solche Einschübe ja
nicht und behandelt sie ganz so, als müssten sie bei
der Synthese des Proteins berücksichtigt werden. Das
kann natürlich nicht gut gehen und führt – wenn überhaupt – zu völlig unsinnigen Eiweißmolekülen. Hier
müssen die Gentechniker den Bakterien zur Hilfe kommen.
Dazu bedienen sie sich wieder einmal weitestgehend der von der Natur zur Verfügung gestellten
Instrumente. Sie isolieren zunächst einmal die Botenmoleküle, aus denen eine Zelle bereits die Einschübe
herausgeschnitten hat. Dann benutzen sie die in diesen Botenmolekülen enthaltene Information, um daraus eine Art Minigen ohne
Einschübe zu rekonstruieren. Die entsprechenden
Enzyme finden sich wie
angedeutet in der Natur.
Solch ein Minigen ohne
Einschübe kann nun auch
wieder von Bakterien richtig in Protein umgesetzt
werden.
Den Weg über diese
so genannten cDNA-Gene
müssen die Gentechniker
praktisch immer dann beschreiten, wenn sie Gene
aus höheren Organismen
in Bakterien für die Synthese des entsprechenden
Eiweißstoffes verwenden
wollen. Dieses Vorgehen
hat den Vorteil, dass aus
den ursprünglich zum Teil
sehr großen Genen kleinere und besser handhabbare DNA-Fragmente werden.
Problematisch ist
gelegentlich, dass manchen Aminosäuren unterschiedliche Tripletts zugeordnet sein können. Nun nutzen nicht alle Organismen alle
möglichen Tripletts mit gleicher Häufigkeit. Taucht
daher in einem Fremdgen ein Triplett auf, das der
Wirtsorganismus selbst nur selten oder gar nicht
benutzt – weil er lieber andere verwendet –, dann
kann dies Schwierigkeiten machen. Allerdings verfügen die Gentechniker heute über viele Möglichkeiten,
ein bestimmtes Triplett innerhalb der DNA gegen ein
anderes auszutauschen. Es ist sogar möglich, ganze
Gene chemisch zu synthetisieren. Auch ein solches
„vollsynthetisches“ Gen kann eine Bakterienzelle in
das entsprechende Eiweiß umsetzen.
Ein weiterer wichtiger Punkt ist die Tatsache,
dass unterschiedliche Organismen unterschiedliche
Signale entwickelt haben, um genetische Information
möglichst effizient in das entsprechende Eiweiß umzusetzen. Dabei sind auch Bereiche außerhalb des
eigentlichen Strukturgens von Bedeutung. Für den
Gentechniker gilt als Faustregel, dass er möglichst
wenig fremde DNA in den Wirtsorganismus einbringt.
Die gesamten Steuerungssignale stammen häufig aus
dem Wirtsorganismus, nur die Information des Strukturgens wird vom Spenderorganismus übernommen.
1.3 Eile mit Weile
Sicherheitsbestimmungen in der
Biotechnologie
Die Ergebnisse von Boyer, Cohen und Kollegen waren
Anfang der 70er Jahre eine echte Sensation. Die Wissenschaft geriet in Aufruhr. Welche unerhörten Möglichkeiten zeichneten sich da ab? Aber wo Chancen
sind, sind immer auch Risiken. Und war man sich über
diese Risiken eigentlich im Klaren?
Man konnte sich über die Risiken zum damaligen
Zeitpunkt noch nicht im Klaren sein. Gegenüber den in
der Natur allgegenwärtig anzutreffenden Systemen
des DNA-Transfers bot sich jetzt ja die Möglichkeit,
über Artengrenzen hinweg Gene beliebig auszutauschen. Das war eine in dieser Verfügbarkeit völlig neue
Qualität. Wie würden sich die Zielorganismen bei Vorhandensein neuer Gene verhalten? Die Wissenschaftler zügelten ihren Tatendrang erst einmal. Und berieten auf einer Konferenz darüber, ob und wie mögliche
Risiken abgeschätzt werden könnten.
Im Anschluss an diese Konferenz, die im Jahr
1975 in Asilomar, USA, abgehalten wurde, führte man
eine ganze Reihe von Versuchen durch. Man benutzte
dazu Einrichtungen, die für den Umgang mit natürlich
vorkommenden und sehr gefährlichen Mikroorganismen oder Viren ausgelegt waren. Diese sind ja leider
gar nicht so selten und erfahren gerade in Zeiten eines
weltumspannenden Tourismus immer neue Berühmtheit. Wissenschaftlich hatte man Mikroorganismen
und Viren deshalb schon früh in Gruppen unterschiedlicher Gefährlichkeit zusammengefasst und für den
Umgang mit diesen Gruppen gemeinsam mit dem
Gesetzgeber Vorschriften erarbeitet. Man behandelte
die gentechnisch veränderten Mikroorganismen nun
so, als gehörten sie in die höchste Sicherheitsstufe.
Die wesentlichste Erkenntnis der damaligen Versuche war, dass das Zufügen eines einzelnen fremden
Gens den Wirtsorganismus in seinen grundlegenden
Eigenschaften nicht verändert. Immerhin hatte es
zuvor eine zwar theoretische, aber sehr beunruhigende
Befürchtung gegeben. Was wäre, wenn aus der Kom-
17
Das Klonieren ist
die Grundoperation
der Gentechnik:
Ein Plasmid wird mit
einem Restriktionsenzym geöffnet und
fremde DNA in die
Schnittstelle eingepasst. Dann wird
die rekombinierte
DNA in Wirtszellen
übertragen und von
diesen vermehrt.
Grundlagen
Grüße von den
Gründungsvätern:
Stanley N. Cohen
und Herbert W.
Boyer machten die
ersten gentechnischen Experimente.
Schon bald darauf
wurde zur Sicherheitskonferenz
von Asilomar eingeladen.
bination eines harmlosen Mikroorganismus mit einem
an sich „harmlosen“ fremden Gen ein gefährlicher
Mikroorganismus entstehen würde? Einer, gegen den
kein Kraut gewachsen ist?
Diese theoretische Befürchtung hat sich nicht
bestätigt. Heute sind wir in der Lage, nicht nur Mikroorganismen, sondern auch Pflanzen und Tiere gentechnisch zu verändern. Daher können wir eine Analogie
aus dem Tierreich wählen. Wenn ein Kaninchen gentechnisch verändert wird, bleibt es trotz einer vielleicht neu hinzugewonnenen Eigenschaft ein Kanin-
18
chen. Der Umgang mit diesem gentechnisch veränderten Kaninchen ist nicht gefährlicher als der mit einem
anderen. Sollte allerdings jemand mit einem gentechnisch veränderten Tiger arbeiten wollen, dann sollte er
besser höllisch aufpassen. Nicht deshalb, weil der
Tiger jetzt gentechnisch verändert ist. Sondern einfach
deshalb, weil es sich um einen Tiger handelt.
Dementsprechend haben sich auch die Richtlinien entwickelt, die ausgehend von der Konferenz von
Asilomar für gentechnische Arbeiten erlassen wurden.
Die Sicherheitsanforderungen orientieren sich an der
Gefährlichkeit der Organismen, deren Gene mittels
gentechnischer Methoden kombiniert werden. Handelt es sich dabei nur um Organismen, die harmlos
sind, dann kann man davon ausgehen, dass auch
der resultierende gentechnisch veränderte Organismus harmlos ist. Für solche Experimente wurden die
Sicherheitsanforderungen daher nach und nach
gelockert.
Allgemein werden gentechnische Experimente
heute in vier Sicherheitsstufen eingeteilt. Die unterste
Sicherheitsstufe, S1, unterliegt in vielen Ländern keiner besonderen Regelung mehr. Auch in Europa und
Deutschland wird verschiedentlich gefordert, die vorhandenen Regelungen in dieser Sicherheitsstufe aufzuheben. Natürlich gelten weiterhin sämtliche Bestimmungen für mikrobiologisches Arbeiten ganz allgemein. Mit wachsender Sicherheitsstufe wachsen die
Anforderungen an die Sicherheitsvorkehrungen bei
den Experimenten dann schnell. Die Bedingungen für
S2-Experimente können von gut ausgestatteten mikrobiologischen Labors in aller Regel noch erfüllt werden.
Ab der Stufe S3 sind aber bereits besondere bautechnische Maßnahmen und ein besonders hohes Ausstattungsniveau erforderlich. Die Anforderungen für S4Experimente erfüllen weltweit nur einige wenige
Hochsicherheitslabors.
Biotechnologie und moderne Medizin
2. Biotechnologie und moderne Medizin
2.1 Ordnung ins Chaos
Einsichten in den Stoffwechsel einer Zelle
Mitte der 70er Jahre begann durch den zunehmenden
Einsatz gentechnischer Methoden eine Revolution in
der Biologie, Medizin und auch auf vielen anderen
Gebieten. Die Gentechnik erweiterte das methodische
Repertoire der Forscher gewaltig und erlaubte es, völlig neue Fragestellungen anzugehen. Die Methoden,
die zunächst nur bei Mikroorganismen angewendet
wurden, konnten durch Abwandlungen und viele Tricks
auch bei höheren Organismen erfolgreich eingesetzt
werden. Der Wissensschub, der daraus resultierte, hat
seine Dynamik auch zu Beginn des neuen Jahrhunderts
noch lange nicht verloren. Im Folgenden sollen einige
Beispiele für Einsichten angeführt werden, die wir
durch Anwendung der neuen Methoden gewonnen
haben.
In einer lebenden Zelle passieren unüberschaubar viele Dinge parallel. Signale werden mit der Umgebung ausgetauscht, Stoffe werden hin- und hertransportiert, ab- und aufgebaut, in Wachstum und Energie
umgesetzt. Die Gentechnik bietet hier eine phantastische Möglichkeit. Sie erlaubt es, aus diesem scheinbaren Tohuwabohu eine bestimmte Reaktion herauszulösen und einzeln zu untersuchen. Ein bestimmtes
Protein, das an solchen Reaktionen beteiligt und natürlicherweise nur in Spuren vorhanden ist, kann man nun
in großen Mengen herstellen. Das Protein kann dann
biochemisch untersucht, seine Struktur aufgeklärt und
spezifische Antikörper gegen das Protein können hergestellt werden. Diesen Möglichkeiten verdankt die
Wissenschaft eine Vielzahl neuer Informationen.
Da sich die öffentliche Diskussion hauptsächlich
um sichtbare Anwendungen und Produkte der Gentechnik dreht, wird die zentrale Bedeutung der Gentechnik für die Grundlagenforschung in vielen Bereichen häufig übersehen. Gerade hier liegt aber ihre
besondere Stärke. Durch die Gentechnik hat es einen
enormen Erkenntnisgewinn und einen Schub für biotechnische Anwendungen gegeben.
Gerade im Hinblick auf Faktoren, die für eine Interaktion von Zellen mit der Umwelt entscheidend sind, hat
man viel gelernt. Zellen besitzen auf ihrer Oberfläche
Rezeptoren, die durch Bindung bestimmter Moleküle,
der so genannten Liganden, aktiviert werden können.
Diese Aktivierung setzt in den Zellen eine Kaskade von
Reaktionen in Gang, an denen jeweils unterschiedliche Proteine beteiligt sind. Die Gentechnik gestattet
es nun, die genetische Information für diese Proteine
auf andere Zellen zu übertragen und jedes Protein für
sich allein zu studieren. Das gilt prinzipiell für alle biochemischen Reaktionen im Körper. Wir lernen deshalb
immer mehr darüber, welche Bedeutung bestimmte
Reaktionen haben, welche Stoffe für ihren reibungslosen Ablauf erforderlich sind und was passiert, wenn
die normalen Reaktionsfolgen gestört werden.
19
Ein geordnetes
Chaos: Die Stoffwechselwege in
einer lebenden Zelle
sind eng miteinander gekoppelt
und nur schwer zu
analysieren.
oben erwähnten Rezeptoren betroffen. Sie signalisieren der Zelle dann fälschlicherweise, dass sie sich
beständig teilen soll. Das daraus resultierende ungeregelte Wachstum kennen wir als Krebs.
Krebs und wie er zustande kommt
Traurige Statistik:
Krebs ist in Deutschland die zweithäufigste Todesursache.
2.2 Außer Kontrolle
Einsichten in die Entstehung von Krebs
Beispielsweise war in der Medizin längst bekannt,
dass Krebs durch ein aggressives Wachstum von Zellen entsteht, die sich normalerweise nicht mehr teilen
sollten. Es war deshalb nahe liegend anzunehmen,
dass Krebszellen Defekte in der Regulierung ihres
Wachstums aufweisen. Auch war schon früh bekannt,
dass bestimmte Krebsarten durch Chemikalien, intensive Strahlung oder Viren hervorgerufen werden können. Doch der genaue Zusammenhang war mit klassischen Methoden nicht zu klären.
Die Anwendung neuer, insbesondere gentechnischer Methoden hat zum Verständnis dieser Zusammenhänge entscheidend beigetragen. Heute wissen
wir, dass Mutationen in bestimmten Genen für das
Auftreten von Krebs mitverantwortlich sind. Proteine,
die in der Zelle wichtige Aufgaben wahrnehmen, werden durch die Mutationen geschädigt oder in ihrer
Funktion verändert. In einigen Fällen sind davon die
20
Das Wachstum unserer Körperzellen ist strikt reguliert. Die meisten der ausdifferenzierten Zellen sollen
sich nicht mehr weiter teilen. Tun sie das aufgrund
eines Fehlers doch, kann Krebs entstehen. Es müssen
dazu aber eine ganze Reihe von Veränderungen zusammenkommen. Ein einziger Fehler reicht für die Entstehung von Tumoren wohl nicht aus. Auch ist das Wachstum einer primären Ansammlung von Krebszellen
schnell beendet. Neuere Untersuchungen belegen,
dass jeder älterer Mensch zahlreiche solcher kleinen
Tumoren in sich trägt. Diese Herde bleiben aber in
einer frühen Entwicklungsphase stehen. Für die Versorgung der Zellen mit Nährstoffen müssen dann erst
neue Blutkapillaren gebildet werden. Dieses Signal an
die Blutkapillaren ist ein ganz entscheidender Wendepunkt in der Entstehung des Krankheitsbildes. Erst
jetzt werden die Zellen des kleinen Tumors ausreichend mit Nährstoffen versorgt und können weiter
wachsen. Ist dieses Wachstum dann richtig in Gang
gekommen, können sich die Tumorzellen vom primären
Ort ihrer Entstehung ablösen, an anderen Orten des
Körpers ansiedeln und dort weiter teilen. Das sind die
gefürchteten Metastasen. Heute wissen wir über
Krebs und die Mechanismen seiner Entstehung sehr
gut Bescheid. Ganz grob kann man Gene unterscheiden, deren Produkte für die Zelle schädlich werden,
wenn sie in vermehrter oder veränderter Form vorliegen. Das sind die so genannten Onkogene. Mindestens
ebenso bedeutend sind Gene, deren Produkte einem
ungeregelten Wachstum ständig entgegenwirken. In
diesen Fällen entsteht Krebs, wenn die entsprechenden Proteine ausfallen. Die korrespondierenden Gene
werden daher als Tumor-Suppressor-Gene bezeichnet.
Bleiben wir beim ersten Fall. Das Wachstum
bestimmter Zellen wird stimuliert, wenn sich zelltypspezifische Wachstumshormone als Liganden an die zuständigen Rezeptoren binden. Dadurch wird der Rezeptor
aktiviert und gibt Signale weiter, die letztendlich eine
Zellteilung zur Folge haben. Dieser Prozess ist streng
reguliert und an die Bindung des Wachstumshormons
gekoppelt. Bestimmte Mutationen im Gen für den Rezep-
Biotechnologie und moderne Medizin
tor haben aber zur Folge, dass ein Rezeptormolekül gebildet wird, das permanent im aktiven Zustand vorliegt.
Auch ohne Bindung des Wachstumshormons signalisiert
dieser Rezeptor der Zelle also ständig, dass sie sich teilen soll. Damit ist eine wichtige Voraussetzung für die
Entstehung von Krebs gegeben. Auch andere Defekte
sind heute so genau bekannt, dass sich durch eine Diagnose auf Genebene sogar Voraussagen über die Schwere und den Verlauf der Krankheit machen lassen.
In einigen Fällen wird davon gesprochen, dass
Krebs erblich ist. Was steckt dahinter? Nach der
Befruchtung einer Ei- durch eine Samenzelle ist ein
doppelter Chromosomensatz in der befruchteten Eizelle vorhanden. Dieser findet sich später in allen Zellen
des Organismus, nur in den Keimzellen nicht, da hier
der doppelte Chromosomensatz durch eine besondere
Form der Zellteilung wieder halbiert wird. Die normalen
Körperzellen aber tragen jedes Gen doppelt in sich, und
zwar eine mütterliche und eine väterliche Version. Ausnahmen gelten nur für die geschlechtstypischen Chromosomen X und Y. Sollte daher ein Gen ausfallen, kann
das andere seine Funktion mitübernehmen. Natürlich
nur, wenn beide Gene von vornherein intakt waren.
Bei den erblichen Formen von Krebs ist es nun
wohl so, dass die mütterliche oder väterliche Version
eines wichtigen Gens bereits defekt ist. Demzufolge
ist nur noch eine der beiden Ausfertigungen des Gens
für die Zelle verfügbar. Daher kann eine Mutation in
dieser zweiten Ausfertigung des Gens direkt zur Ausbildung von Krebs beitragen. Ohne diese Vorbelastung
müssen innerhalb einer Zelle in beiden Genen gleichzeitig Mutationen auftreten. Die Wahrscheinlichkeit
dafür ist ungleich geringer. Bei genauer Betrachtung
wird also nicht Krebs vererbt, sondern eine genetische
Disposition, die das Auftreten einer Krebserkrankung
wahrscheinlicher macht.
Neue therapeutische Ansätze richten sich heute
vor allem gegen bestimmte Strukturen auf den Oberflächen von Krebszellen. Im Produktteil der Broschüre
findet sich ein Beispiel dafür, das Trastuzumab, das
gegen eine bestimmte Form von Brustkrebs eingesetzt
werden kann. Krebszellen unterscheiden sich in ihren
Oberflächenstrukturen oft deutlich von normalen Zellen. Diese Unterschiede können von Antikörpern
erkannt und zunächst einmal diagnostisch genutzt
werden. Es sind aber auch Strategien entwickelt worden, bei denen die Antikörper Rezeptoren blockieren
oder toxische Moleküle gezielt und ausschließlich an
Tumorzellen heranführen. Hierfür werden die für
Tumorzellen spezifischen Oberflächenproteine mit
gentechnischen Methoden hergestellt und Mäusen
oder Kaninchen appliziert. Diese produzieren gegen
die fremden Proteine dann Antikörper und können als
Grundlage für die Herstellung Monoklonaler Antikörper (siehe Seite 94) genutzt werden. Wie später noch
erläutert, werden diese Monoklonalen Antikörper vor
einem Einsatz am Menschen dann noch chimärisiert
oder humanisiert, um sie verträglicher zu machen. Die
Antikörper können je nach therapeutischem Ansatz in
vitro auch noch mit den Molekülen beladen werden,
die die Krebszellen abtöten sollen. Da die Antikörper
idealerweise nur an die Oberflächenproteine der
Krebszellen binden, kommen die zelltoxischen Moleküle nur mit Krebszellen in Berührung und töten nur
diese ab. Auch für dieses Prinzip findet sich – in einer
leicht abgewandelten Form – ebenfalls ein Beispiel im
Produktteil, das Denileukin Diftitox. Hier wird das toxische Molekül nicht mit einem Antikörper, sondern mit
dem natürlichen Liganden eines Rezeptors auf den
Krebszellen verbunden.
Krebs kann durch ein große Anzahl unterschiedlicher Gendefekte ausgelöst werden. Viele dieser Veränderungen sind heute genau bekannt und können zu
diagnostischen Zwecken herangezogen werden. Im
Falle des Retinoblastoms, einer seit vielen Jahrhunderten bekannten und tödlich verlaufenden Form von
Augenkrebs, konnte man eine bereits länger gehegte
Vermutung belegen: Die Veranlagung für manche
Krebsarten ist vererbbar. Beim Retinoblastom ist das
Auftreten des Tumors sehr wahrscheinlich, wenn eine
bestimmte genetische Prädisposition gegeben ist.
Diese ist besonders einfach nachweisbar, weil sie mit
einer Chromosomenumlagerung verknüpft ist und
schon unter dem Mikroskop erkennbar wird. Dort, wo
mit dem Vorhandensein dieser Veranlagung aus der
Familiengeschichte heraus zu rechnen ist, kann daher
früh mit einer sorgfältigen Beobachtung der Retina
begonnen werden. Während die Krankheit früher mit
Sicherheit tödlich verlief, kann sie heute frühzeitig
erkannt und das Leben – oft auch das Augenlicht der
Patienten – gerettet werden.
Eine ähnliche Situation ergibt sich im Fall einer
Veranlagung für Brustkrebs bei Frauen. Hier konnten
Gene identifiziert werden, deren Nachweis ebenfalls
mit hoher Wahrscheinlichkeit erwarten lässt, dass
sich bei den Trägerinnen Brustkrebs entwickeln wird.
Leider verfügt die Medizin außer über die Möglichkeit
zu einer intensiven Vorsorge – wie schon im Falle des
21
Biotechnologie und moderne Medizin
Retinoblastoms – noch nicht über echte therapeutische Möglichkeiten. Die diagnostischen Möglichkeiten gehen den therapeutischen hier, wie in vielen
anderen Bereichen der Medizin, voran. Mit der Kenntnis um die Ursachen einer Krankheit hat man aber die
wesentlichste Voraussetzung für einen rationalen therapeutischen Ansatz geschaffen.
Ein Bereich, der eng mit dem Krebsgeschehen
verknüpft ist, ist die Immunologie. Auch auf diesem
Sektor hat es dank der Verfügbarkeit gentechnischer
Methoden große Fortschritte gegeben. Dies hat unter
anderem damit zu tun, dass man die oben bereits
erwähnten Oberflächenstrukturen von Zellen isolieren
und einzeln studieren kann. Darüber hinaus hat man
sehr viel über die Faktoren gelernt, die auf das Immunsystem stimulierend wirken können. Daraus haben
sich neue Ansätze ergeben, die im Kapitel „Neue Therapien“ kurz angerissen werden.
2.3 HUGO teilt die Karten aus
Die Bedeutung der Genomprojekte
Das Humangenomprojekt (HGP) ist ein historisch einmaliges Unternehmen – nicht nur wegen des veranschlagten Kostenvolumens von 3 Milliarden Dollar.
Rund um den Erdball arbeiten, koordiniert von der
Human Genome Organization (HUGO), Forscherteams
Schneller als erwartet: Die Sequenzierung des menschlichen Genoms ist
dank hoher Automatisierung bereits
weitgehend abgeschlossen.
arbeitsteilig an der Sequenzierung der 24 verschiedenen Chromosomen (22 Autosomen und die Geschlechtschromosomen X und Y). Deutsche Forscher
bearbeiten die Chromosomen 7, 11, 21 und X. In den
USA, in Großbritannien, Frankreich, Deutschland und
Japan entstanden mit öffentlichen Mitteln große
Genomforschungszentren, die die notwendigen personellen und materiellen Ressourcen bereitstellen.
In Konkurrenz zum Humangenomprojekt beteiligen sich auch Firmen an der Entschlüsselung des
22
Humangenoms. Sie wollen Geld mit der Suche nach
interessanten Gensequenzen verdienen, die sie patentieren und an große Pharmaunternehmen verkaufen
könnten. Die Firmen konzentrieren sich dabei bevorzugt auf die Sequenzierung von gencodierenden DNAAbschnitten, die nur ca. 3% des gesamten Humangenoms ausmachen. Patente auf DNA-Sequenzen werden übrigens nur dann gewährt, wenn diese noch nicht
in öffentlichen Datenbanken erfasst wurden und
im Patentantrag auch die zugehörigen Funktionen
genannt werden. Die Aufklärung der Genfunktionen ist
meistens schwierig und dementsprechend teuer.
Das Humangenomprojekt gewann ab Mitte der
90er Jahre rasch an Fahrt. Aus den Labors fluten seitdem immer mehr Sequenzdaten in die Datenbanken (s.
Abb.). Diese „Massenproduktion“ ist u.a. der Verfügbarkeit von leistungsfähigen DNA-Sequenzierungsautomaten zu verdanken. Die Genomforschung erzwang geradezu das Zusammenwachsen von zwei
bislang entfernten Fachrichtungen zur so genannten
Bioinformatik. Diese hat die schwierige Aufgabe, die
relevanten Informationen aus dem gewaltigen Datenstrom herauszufiltern. Hier erwies sich die atemberaubende Entwicklung des Internets als segensreich,
ermöglicht es doch den sofortigen Abgleich mit
andernorts gewonnenen Daten und stellt zudem allen
Interessierten den aktuellen Stand online zur Verfügung. Ein internationales Abkommen, die BermudaKonvention, verpflichtet die Partner im HGP, alle
gewonnenen Sequenzdaten unverzüglich zu veröffentlichen. Nach ursprünglicher Planung der HUGO sollte
das Humangenom bis 2005 vollständig durchsequenziert und die Daten öffentlich verfügbar sein.
Im Frühjahr 1998 kündigte der amerikanische
Genomforscher J. Craig Venter überraschend an, die
Sequenzierung des Humangenoms in einem eigenen
Projekt mindestens drei Jahre früher als das internationale Genomprojekt abschließen zu können. Dazu
gründete er mit einem Hersteller von Sequenzierungsautomaten das Unternehmen Celera, das über
hunderte von Hochleistungs-Sequenziermaschinen
verfügt. Während im HGP kartiert und sequenziert wird
(s. Kasten), verfolgt Celera einen Schrotschuß-Ansatz,
der auf der statistischen Zerstückelung des gesamten
Genoms beruht. Die vielen erhaltenen Fragmente werden wahllos sequenziert und die gefundenen Sequenzen durch Computeranalyse anhand ihrer Überlappungen zu einer zusammenhängenden DNA-Sequenz
zusammengefügt. Die darin enthaltenen medizinisch
Biotechnologie und moderne Medizin
Gering aufgelöste Physikalische
Karte des Chromosoms 19
Genetische Karte
Myotonische Dystrophie (DM)
Hämolytische Anämie (GPI)
Maligne Hyperthermie (RYR1)
Pseudoachondroplasie (COMP)
Insulin-unabhängige Diabetis (INSR)
Familiäre Hypercholesterolämie (LDLR)
interessanten Informationen verkauft das Unternehmen an Pharmafirmen.
Celera begann im September 1999 mit der
Sequenzierung und steigerte seine Sequenzierkapazität auf mehrere Millionen Basenpaare am Tag.
Bereits im Januar 2000 lagen nach Firmenangaben
bereits 90% des menschlichen Genoms in einer Rohfassung vor. Aufgeschreckt durch diese Fanfarenstöße
legte man auch beim Internationalen Humangenomprojekt einen höheren Gang ein und nahm die Herausforderung an. Weltweit wurden kurzfristig zusätzliche
Fördermittel bewilligt, bestehende Zusagen mit vorgezogenem Zeitplan eingelöst und der angekündigte
Abschluss der Sequenzierung um zwei Jahre vorverlegt. Ende 1999 veröffentlichten die HUGO-Forscher
die fast vollständige Sequenz des Chromosoms 22 mit
seinen 34 Millionen Basenpaaren. Für das Frühjahr
2000 wurde die erste Genkarte (draft) des Menschen
angekündigt, die 90% des gesamten Genoms umfassen soll und der die ungefähren Positionen der bis
dahin gefundenen Gene zu entnehmen sein sollen.
Bestehende Lücken würden in den folgenden drei Jahren geschlossen werden, bis schließlich 2003 die
genaue Gesamtsequenz vorliegen soll. Das Rennen
dürfte spannend bleiben.
Sicher ist die Sequenzierung des Humangenoms
eine nahe liegende und vordringliche Aufgabe. Viel
komplizierter und zeitaufwendiger wird jedoch die
Ermittlung der Genfunktionen und die Aufklärung der
komplizierten Regulationsmechanismen werden, von
denen die Entwicklung eines Organismus oder die Zellteilung gesteuert wird. Wie bei anderen biomedizinischen Fragestellungen auch kann man viel aus dem
Studium anderer Organismen lernen. Aus diesem
Grund gibt es neben dem HGP weitere internationale
Sequenzierungsprojekte für die Genome von ModellOrganismen. Es gibt z. B. Genomprojekte für die Genome der Maus, der Fruchtfliege oder des Zebrafisches. Mit Hilfe von „Gene-knock-out“-Studien will
man herausfinden, welche Rolle ein bestimmtes Gen
spielt, das sowohl im Human- als auch im Modellorganismusgenom vorkommt. Unter „Gene-knock-out“
versteht man das gezielte Ausschalten einzelner Gene.
Die daraus resultierenden Effekte geben wertvolle
Informationen zur Funktion des defekten Gens.
Für die Pflanzenbiotechnologie wurde die Erforschung von Modellpflanzengenomen ebenfalls unverzichtbar. Mit den Ergebnissen hofft man,
ertragreichere Varianten züchten zu können
und die Vorgänge der pflanzeneigenen
Schädlingsabwehr zu enträtseln, um
widerstandsfähige Sorten zu entwickeln.
Mit der Ackerschmalwand (Arabidopsis
thaliana) wählten die Forscher eine
Modellpflanze für das Internationale
Genomprojekt aus, die ein verhältnismäßig
Marker
kleines Genom besitzt.
Entfernung in Centimorgans
Durch moderne
Methoden können
bestimmte Bereiche
der Chromosomen
spezifisch sichtbar
gemacht werden.
Die Chromosomen
werden in immer
kleinere Bruchstücke aufgeteilt,
bis diese sequenziert werden
können.
Überlappende Fragmente
Karte mit den
Schnittstellen der
Restriktionsenzyme
Basensequenzen
23
Biotechnologie und moderne Medizin
Nicht nur, weil es das erste vollständig durchsequenzierte größere Genom war, sondern auch, weil es sich
bei der Hefe um einen Organismus mit echtem Zellkern
(Eukaryont) handelt. Als solcher steht die Hefe dem
Menschen entwicklungsgeschichtlich und physiologisch sehr viel näher als Bakterien oder Archaea, was
die Suche nach verwandten Genen aussichtsreicher
macht. Bei einem Vergleich der Sequenzdaten hat sich
herausgestellt, dass rund 25% der Hefegene in ähnlicher Form auch beim Menschen zu finden sind.
Wie findet man sich im Genom zurecht?
Orientierung ist
wichtig: Beim Vordringen auf unbekanntes Terrain war
das Anlegen von
Karten schon immer
hilfreich.
BMBF-Aktivitäten
Im Juli 1999 startete in Deutschland das Pflanzengenomprojekt GABI, in dessen Mittelpunkt die Genomanalyse wichtiger Kulturpflanzen steht. Aus den Forschungsergebnissen werden Impulse für eine qualitative Verbesserung von Pflanzen und ihren Inhaltsstoffen erwartet. Hieraus ergeben sich u. a. neue Möglichkeiten zu einer Ressourcen schonenden, umweltverträglichen Produktion von Wirkstoffen für die
Industrie. Das Forschungsprojekt GABI soll Deutschland in eine internationale Spitzenposition auf dem
Gebiet der Pflanzengenomforschung bringen.
Auch Mikroorganismen-Genomprojekte sind in
großer Zahl gestartet worden. Einerseits besitzen
Mikroorganismen kleine Genome, die verhältnismäßig
schnell und kostengünstig zu sequenzieren sind. Andererseits verspricht die Entdeckung von Genen, die für die
pathogenen Eigenschaften verantwortlich sind, gute
Ansatzpunkte zur Entwicklung von Antibiotika (s.a. Kap.
„Biochips“). Daher wundert es nicht, dass weltweit fast
90 mikrobielle Genomprojekte durchgeführt werden.
Besondere Erwähnung verdient die Entschlüsselung des Hefegenoms mit seinen ca. 6.400 Genen.
24
Wie vor Jahrhunderten bei der Erkundung neu entdeckter Kontinente müssen heutzutage auch die Pioniere der Genomforschung Karten anfertigen. Deren
zunehmende Genauigkeit erst ermöglicht die Erschließung des unbekannten Terrains.
Eine erste grobe Orientierung bieten so genannte „Genetische Karten“. Hier nutzt man die Tatsache,
dass die Chromosomen eines Chromosomenpaares
meistens nicht unverändert von einer Generation auf
die nächste übertragen werden, sondern mit ihrem
Schwesterchromosom Stücke austauschen. Dass zwei
Abschnitte auf einem Chromosom gemeinsam an die
nächste Generation weitergegeben werden, ist umso
wahrscheinlicher, je näher sie beieinander liegen. Die
statistische Häufigkeit, mit der zwei Orte gemeinsam
vererbt werden, sprich gekoppelt sind, ist deshalb ein
Maß für die relative Entfernung voneinander. Als charakteristische „Wegmarken“ (engl. Marker) bei solchen Kopplungsanalysen dienen z.B. Polymorphismen.
Das sind charakteristische DNA-Sequenzen, die zwischen verschiedenen Menschen kleine Unterschiede
aufweisen können und die zu Tausenden über die Chromosomen verteilt sind. Durch Kopplungsanalysen ist
es z.B. möglich, die statistische Distanz zwischen
einem krankheitsassoziierten Gen und einem Marker
zu bestimmen.
So genannte „Physikalische Karten“ eines
Genoms sind schon genauer. Sie geben im Gegensatz
zu den oben erwähnten statistischen Entfernungen die
echten räumlichen Distanzen zwischen den Markern
wieder. Physikalische Karten basieren auf der Tatsache, dass sich mit Hilfe vieler bekannter Marker viele
Teilstücke eines Genoms – ähnlich wie ein Puzzle – an
ihren Enden überlappend aneinanderfügen lassen.
Zunächst zerstückelt man genomische DNA in mehre-
Biotechnologie und moderne Medizin
ren Ansätzen mit verschiedenen Enzymen in größere
Fragmente von 500.000 bis 1 Million Basenpaaren
Länge. Sie werden in spezielle Hefechromosomen, so
genannte YACs (yeast artificial chromosomes), eingefügt. Dadurch erhält man eine „Bibliothek“ von Klonen,
die mit Sicherheit so viele DNA-Fragmente enthält,
dass das gesamte Genom mindestens einmal darin
repräsentiert ist. Die klonierten Fragmente der YACBibliothek lassen sich nun anhand bekannter Marker
zu einem minimalen Satz überlappender Fragmente
anordnen, die das gesamte Genom lückenlos abdecken. Einen solchen Satz bezeichnet man als contiguous gene sequence, abgekürzt contig (s. Abb. S. 23
unten). Ein contig ist gewissermaßen schon eine erste
grobe Karte des Genoms.
Für die Bestimmung der Reihenfolge der DNABasen, die Sequenzierung, sind die einzelnen YAC-Fragmente aber noch viel zu groß. Daher spaltet man auch
diese und erhält Fragmente von durchschnittlich
100.000-200.000 Basenpaare Länge, die in Bakterien
kloniert werden können. Man erzeugt auf diese Weise
viele einzelne contigs, die die jeweiligen Fragmente der
YACs repräsentieren und zusammengelegt eine feinere
Karte des ganzen Genoms ergeben. Über weitere Subklonierungschritte gelangt man schließlich zu Fragmentlängen, die vollständig sequenziert werden können. Aus
allen diesen Teilsequenzen lässt sich dann per Computer
die Gesamtsequenz des Genoms zusammenfügen.
Die Suche nach bestimmten, z.B. krankheitsassoziierten Genen im Genom ähnelt einer Schatzsuche auf einem unbekannten Kontinent. Schließlich
bestehen 97% des Genoms aus nichtcodierenden
Sequenzen. Zwar erhält man aus Kopplungsanalysen
Hinweise auf interessante Regionen, aber die Eingrenzung der chromosomalen Abschnitte auf die gesuchte
Gensequenz, die so genannte Positionsklonierung,
erfordert viel Aufwand. Bei den Kopplungsanalysen
vergleicht man systematisch die DNA von gesunden
mit der von erkrankten Familienmitgliedern. Ermittelt
man die Position von Markern, die zusammen mit der
Erkrankung vererbt werden, weiß man damit auch, wo
in etwa auf welchem Chromosom das „KrankheitsGen“ liegen muss. Rund 6.000 Krankheiten werden
nach heutiger Schätzung jeweils durch ein einziges
defektes Gen verursacht. Die zahlreichen polygenetischen Erkrankungen, an deren Zustandekommen mehrere, oft Dutzende von Genen beteiligt sind – etwa
Arteriosklerose, Asthma oder Krebs – sind weitaus
schwieriger zu analysieren.
Zur Suche nach unbekannten Genen werden
bevorzugt so genannte ESTs (expressed sequence
tags) als „Gensonden“ eingesetzt. ESTs sind kurze
cDNA-Fragmente, die aus mRNAs erhalten werden,
welche ja bekanntlich die Botenmoleküle für die Proteinsynthese sind. ESTs sind deshalb charakteristische
Marker für codierende Abschnitte im Genom, sprich für
Gene. Findet man eine EST-Sequenz im Genom wieder,
hat man auch das Gen lokalisiert. Allerdings weiß man
damit immer noch nicht, welche Funktion das Gen hat.
Wählt man beispielsweise von vornherein mRNA aus
Zellen erkrankter Gewebe aus, erhöht sich die Wahrscheinlichkeit, krankheitsrelevante Gene zu finden.
In der Praxis arbeitet man heute zunehmend mit
DNA-Chips (s. Kap. „Biochips“), um gezielt diejenigen
mRNAs herauszufischen, die mit einem pathologischen Zustand assoziiert sein könnten.
2.4 Von geizigen Genen
und Biochips
Die Methode des Transcript-Imaging
Man schätzt heute grob, dass in der Gesamtheit der
menschlichen Erbinformation rund 100.000 Gene enthalten sind. Diese sind aber längst nicht alle gleichzei-
25
Die Chiptechnik
bringt es auf den
Punkt. Die Aktivität
Tausender Gene
kann gleichzeitig
gemessen werden.
Biotechnologie und moderne Medizin
tig aktiv. Die meisten Gene befinden sich quasi im
Ruhezustand und stellen ihre Information der Zelle gar
nicht zur Verfügung.
Wir wissen, dass Proteine entstehen, wenn die
entsprechende genetische Information aktiviert und in
Kranke und
gesunde Zellen
unterscheiden sich
in der Aktivität
ihrer Gene. Diese
Unterschiede
können mit Fluoreszenzfarbstoffen
sichtbar gemacht
werden.
Form der mRNA zu den Ribosomen transportiert wird.
Die Art und Zahl der mRNA-Moleküle, die in einer Zelle
vorhanden sind, können daher etwas über ihren
Zustand aussagen. Es sind Verfahren entwickelt worden, um die mRNA-Moleküle in einer Zelle nach Art
und Anzahl zu erfassen. Damit erfährt man sofort, welche Gene in einer Zelle angeschaltet und ob sie sehr
oder nur wenig aktiv sind.
Es ist der Vergleich von gesunden und kranken
Zellen, der das Verfahren besonders interessant
26
macht. Denn erst wenn die Ursachen einer Krankheit
bekannt sind, kann man gezielte Schritte gegen sie
unternehmen. Wenn ein Mensch krank wird und Fieber
hat, können wir zunächst nur versuchen, sein Fieber
durch äußerliche Maßnahmen zu senken. Erst wenn
wir wissen, wodurch das
Fieber ausgelöst wird, können wir auch die Ursache
beseitigen.
Taucht beispielsweise eine bestimmte mRNA in den
Zellen eines kranken Menschen nicht mehr auf, dann
kann man der Frage nachgehen, welches Gen nicht
mehr aktiv ist und welche
Aufgabe das zugehörige
Protein in der Zelle normalerweise erfüllt. Dies kann
wiederum mit den Krankheitssymptomen in Verbindung gebracht werden. Hier
erweisen sich die im
Genomprojekt ermittelten
Daten von großem Wert.
Diese Daten erlauben die
Korrelation von Genen und
Funktionen. Die Methode
des Transcript Imaging ermittelt dann, welche Gene
zu welchem Zeitpunkt angeschaltet sind. In Verbindung
mit den Daten aus dem
Genomprojekt kann man
ableiten, welche Funktionen der Zelle wann und in
welchem Umfang zur Verfügung stehen.
Neben der direkten Untersuchung von Krankheitsursachen versetzt uns das Transcript Imaging auch in die Lage, Unterschiede zwischen
verschiedenartig spezialisierten Zellen zu erkennen. Es
ist nicht überraschend, dass in einer Leberzelle andere
Gene aktiv sind als in einer Hautzelle. Die Zellen haben
zwar dieselbe genetische Ausstattung, müssen aber
völlig andere Aufgaben erfüllen. Sie erreichen dies,
indem sie jeweils andere Gene aktivieren. Gerade die
unterschiedliche Aktivität der Gene ist es, die den
einen Zelltyp vom anderen unterscheidet. Das Tran-
Biotechnologie und moderne Medizin
script Imaging gestattet es jetzt, der Spezialisierung
einzelner Zelltypen auf die Spur zu kommen. Einen eleganten Weg, die Expression vieler Gene gleichzeitig zu
verfolgen, bieten die so genannten DNA-Chips, die
gelegentlich auch als Biochips bezeichnet werden. Als
Appetithäppchen eignen sie sich aber keineswegs.
Warum das so ist und worum es sich bei den DNAChips genau handelt, wird in Kapitel 7 der Broschüre im
Abschnitt „Diagnostik“ näher erläutert (siehe S. 99).
2.5 Vom Genom zum Proteom
Proteine sind die Aktivisten der Zelle
Für das Geschehen in einer Zelle ist die Aktivität der
Gene zwar charakteristisch und notwendig, aber nicht
hinreichend. Proteine sind die eigentlichen Träger der
im Genom festgelegten Zellfunktionen. Um die komplexen zellulären Vorgänge völlig verstehen zu können,
muss man daher die Gesamtheit der vorhandenen Proteine erfassen und analysieren. Dabei müssen letztlich
die zahllosen Wechselwirkungen zwischen den einzelnen Proteinen entwirrt werden. Die Gesamtheit der
exprimierten Proteine einer Zelle bezeichnet man übrigens als Proteom – in Analogie zum Genom als der
Gesamtheit des Erbguts. Zwischen Genom und Proteom bestehen in der Tat große Unterschiede, was die
Art der Informationen betrifft. Zum Beispiel gibt es
nur schwache Korrelationen von mRNA- und ProteinExpressionsmustern. Quantitative Änderungen der
mRNA-Transkription korrelieren allenfalls zu 50% mit
der Proteinbildung, was bedeutet, dass Analysen auf
der mRNA-Ebene nur unvollständig Auskunft über zelluläre Prozesse geben. Auch besteht nur selten ein
1:1-Verhältnis von Genen und Proteinen. Bei der Hefe
etwa gibt es zu jedem Gen im Durchschnitt drei verschiedene Proteinprodukte. Das kann daran
liegen, dass mehrere
Proteine
innerhalb
eines „offenen Leserahmens“ (ORF) codiert
sind oder dass aus einer
exprimierten Proteinkette durch nachträgliche Spaltung mehrere
funktionale
Proteine
entstehen, was man an
der zugehörigen DNA-
Sequenz nicht leicht erkennen kann. Zudem wird bei
höheren Organismen die Funktion vieler Proteine durch
enzymatische Veränderungen nach der Translation
entscheidend beeinflusst. Beim Menschen schätzt
man bis zu zehn unterscheidbare, jeweils anders modifizierte Proteine pro Gen.
In der Proteomforschung (engl. Proteomics)
untersuchen Wissenschaftler systematisch die Proteinexpressionsmuster von verschiedenen Zellzuständen
(s. Kasten). Durch den Vergleich der Muster erfahren
sie, welche Eiweiße in welchem Zustand vorhanden
sind und in welchem sie fehlen. Für die Pharmaforschung sind solche Hinweise sehr wertvoll geworden:
Wenn man z.B. die Eiweiße kennt, die nach der Zugabe
eines Wirkstoffs von der Zelle gebildet werden, kann
man herausfinden, wodurch die Wirkung zustande
kommt, und mit diesen Informationen möglicherweise
bessere Wirkstoffe entwickeln.
In der Grundlagenforschung sind die neuen
Methoden bereits unverzichtbar geworden. Denn die
ungeheure Komplexität der Zellfunktionen lässt sich
nur verstehen, wenn man Methoden einsetzt, die viele
Informationen gleichzeitig liefern. Deshalb ergänzen
sich Genomforschung, Genexpressionsanalyse und
Proteomics ideal bei der Erforschung der Zellvorgänge
auf verschiedenen Ebenen der Zellorganisation.
Wie untersucht man
Proteinexpressionsmuster?
Das Prinzip der zweidimensionalen Auftrennung von
Proteinen ist schon recht alt. Bereits 1975 veröffentlichte O'Farrell ein elektrophoretisches Verfahren, das
seitdem aus dem Laboralltag nicht mehr wegzudenken
ist. Unter Elektrophorese versteht man die Wanderung
geladener Teilchen in
einem
elektrischen
Feld. Unterschiedliche
Ladungen und Größen
der Teilchen bewirken
unterschiedliche Beweglichkeiten in einer
Gelmatrix, was zur Auftrennung eines Substanzgemischs in einzelne Zonen führt.
Beim O'FarrellGel werden Protein-
27
Ein Fleckenteppich
als Informationsquelle; die vielen
Proteine einer Zelle
werden gelelektrophoretisch aufgetrennt.
Biotechnologie und moderne Medizin
Gentechnisch veränderte Mäuse und
Ratten sind hervorragende Modelle, um
die Ursachen von
Krankheiten zu
analysieren und
wirksame Therapien
zu entwickeln.
gemische auf einem rechteckigen Elektrophorese-Gel
zunächst in einer Richtung entsprechend ihrer SäureBase-Eigenschaften getrennt.
Anschließend trennt man die Proteinfraktionen
der Zonen durch ein rechtwinklig zur ersten Trennung
angelegtes elektrisches Feld. Dabei wandern die Proteine entsprechend ihrer Molekülgrößen unterschiedlich weit in das Gel hinein.
Im Ergebnis erhält man nach Anfärbung der Proteine ein zweidimensionales Muster von „spots“,
deren Positionen charakteristisch für das jeweilige
Protein sind (s. Abb.). Wie in einem Diagramm lassen
sich Säure-Base-Charakter und Molekülgröße des
jeweiligen Proteins ablesen. Die Intensität der Spots
weist außerdem auf die Proteinmengen hin. Gute
Trenngele können heute bereits einige zehntausend
separate Proteinspots auflösen.
Die vergleichende Auswertung dieser komplizierten
Muster wurde erst in den letzten Jahren dank hochauflösender Kameras und leistungsfähiger Bildanalysesoftware möglich. Zur genaueren Untersuchung werden einzelne Proteinspots mit Hilfe von Robotersystemen präzise ausgeschnitten und anschließend analysiert. Für die automatisierten Proteinsequenzierungsverfahren reichen schon geringste Mengen Material
aus. Besondere Bedeutung hat die Massenspektrometrie erlangt, wenn es darum geht, eine große Zahl von
Spots zu analysieren. Dazu werden die Proteine zuvor
enzymatisch in kleinere Proteinfragmente zertrennt.
Sie lassen sich im Massenspektrometer zunächst nach
Molekülmassen sortieren und dann einzeln in
28
sequenzcharakteristische Fragmente aufspalten. Die
dabei gefundenen Aminosäuresequenz-Informationen
dienen als Anhaltspunkte zur Suche in Protein- und
DNA-Datenbanken, um darin Hinweise auf ähnliche,
bereits bekannte Eiweiße zu finden.
2.6 Die Gleichheit der Gene
Transgene Tiere als Krankheitsmodelle
Die Ergebnisse aus dem Genomprojekt und aus dem
Transcript Imaging sind zunächst theoretisch und müssen in der Praxis überprüft werden. Hier erweist es
sich als günstig, dass bei Säugetieren die Gene mit
gleicher Funktion sehr ähnliche Sequenzen haben.
Daher kann man verwandte Gene relativ einfach identifizieren. Wenn ein menschliches Gen bekannt ist,
dann kann man also recht schnell auch das entsprechende Gen in der Maus finden.
Gentechnische Methoden wurden schon zu
Beginn der 80er Jahre benutzt, um fremde DNA in Mäusen zu exprimieren. Im weiteren Verlauf der Arbeiten
wurden Verfahren entwickelt, mit denen in transgenen
Mäusen Gene gezielt inaktiviert werden können. Dies
ermöglicht es heute, in der Maus genau das Gen auszuschalten, dessen Analog beim Menschen im Transcript
Imaging aufgefallen ist. Transgene Mäuse erlauben es
daher, die Auswirkungen dieser Inaktivierung zu studieren und zu untersuchen, ob dadurch Symptome ähnlich
der menschlichen Krankheit ausgelöst werden. Wenn
das der Fall ist, kann man an den transgenen Mäusen
die Wirkung von Substanzen testen, die als Therapeutika für das menschliche Leiden in Frage kommen. Gerade
für die medizinische Grundlagenforschung sind solche
Versuche unverzichtbar.
Aber auch ganz ohne die Verbindung zum Transcript Imaging sind transgene Mäuse als Krankheitsmodelle einsetzbar. Das bekannteste Beispiel ist wohl
die Onkomaus, die man ebenso lax auch als HarvardMaus bezeichnet. Hintergrund für die Namensgebungen ist die Tatsache, dass von der Harvard-Universität ein Patent für die Herstellung von Mäusen
angemeldet worden ist, welche nach Einführung
menschlicher Onkogene schon früh in ihrem Leben
Krebs entwickeln (zur Patentierung wird im Kapitel 7
etwas gesagt). Mittlerweile sind viele verschiedene
menschliche Onkogene in Mäuse eingeführt worden
und führen bei diesen zur Ausbildung unterschiedlicher Arten von Tumoren. An diesen Mäusen kann man
Biotechnologie und moderne Medizin
nun grundlegende Untersuchungen durchführen und
studieren, ob potenzielle Medikamente eine Wirkung
haben. Transgene Mäuse sind deshalb hervorragende
Modelle, wenn nach neuen Medikamenten gegen
Krebserkrankungen gesucht wird.
Mäuse bieten den großen Vorteil, dass man
durch Einführung der Gene in Inzuchtstämme Tiere
erhalten kann, deren genetischer Hintergrund weitestgehend gleich ist. Das erleichtert die Auswertung von
Versuchen ganz erheblich. Bereits heute stehen eine
Vielzahl transgener Maus-Linien bereit, um unterschiedliche Krankheiten zu untersuchen und potenzielle Medikamente auszutesten. Besonders interessant sind dabei Stämme, die Symptome einer menschlichen Krankheit entwickeln, für die es im Tierreich
sonst keine bekannte Entsprechung gibt. In den vergangenen Jahren haben sich bereits einzelne Firmen
darauf spezialisiert, solche transgenen Maus-Linien zu
entwickeln.
Nicht nur Mäuse, auch eine ganze Reihe anderer
Tiere werden für die Untersuchung und Entwicklung
neuer Medikamente herangezogen. Das Schlagwort
heißt hier Target-Validierung. Damit ist gemeint, dass
die vielen neuen Angriffspunkte für potenzielle Medikamente auf ihre tatsächliche Eignung hin überprüft
werden müssen. Darauf wurde zu Beginn des Kapitels
schon hingewiesen. Die neuen Angriffspunkte, die im
wissenschaftlichen Jargon als Targets bezeichnet
werden, ergeben sich vor allem aus den Daten der
Genomprojekte. Es sei an dieser Stelle auch erwähnt,
dass sämtliche bis zum Jahr 2000 verfügbaren Medikamente gegen eine nur recht geringe Zahl molekularer Angriffspunkte gerichtet waren. Man schätzt diese
Zahl auf rund 500. Die Fachleute gehen nun davon aus,
dass die Erkenntnisse der Genomforschung bis zu
10.000 neuer solcher Targets liefern werden. Es ist
deshalb von entscheidender Bedeutung, schon früh die
richtigen, für die Wirkung eines zu entwickelnden
Medikaments optimalen Targets zu identifizieren.
Dazu werden entsprechende Tiermodelle entwickelt,
die dem Stoffwechsel des Menschen möglichst nahe
kommen sollen. Aufgrund der im Einzelfall oft nur
geringen genetischen Distanz zum Menschen reicht
die Palette von der Maus über den Zebrafisch und die
Fruchtfliege Drosophila bis hin zum Fadenwurm Caenorhabditis elegans – um nur einige zu nennen.
2.7 Immer eine Nasenlänge
voraus?
Der Wettlauf mit pathogenen Keimen
Seit der Mensch seine Leiden zu lindern oder zu heilen
versucht, bedient er sich dazu der Mittel, die ihm die
Natur zur Verfügung stellt. Beispiele sind uns allen
bekannt und schließen Pflanzenextrakte ebenso ein
wie das Penicillin. Die moderne Wissenschaft hat
Wirkkomponenten isoliert, analysiert und in reiner
Form als pharmazeutische Wirkstoffe zur Verfügung
gestellt. Die resultierenden Medikamente werden
heute erfolgreich gegen eine breite Palette menschlicher und tierischer Erkrankungen eingesetzt.
Wir machen uns nur noch selten bewusst, dass
uns dieses Arsenal an Medikamenten erst seit relativ
kurzer Zeit zur Verfügung steht. Wer denkt heute schon
daran, dass noch in der ersten Hälfte des vergangenen
Jahrhunderts eine Wundinfektion häufig zu Amputationen oder zum Tode führte. Die durch eine offene
Wunde in den Körper eindringenden Mikroorganismen
konnten nicht beherrscht werden. Man musste der
Ausbreitung von Infektionen oft hilflos zusehen. Erst
mit der Entdeckung der Antibiotika bekam man die
Möglichkeit, wirkungsvoll gegen solche Infektionen
anzugehen. Die eher zufällige Beobachtung, dass Bakterien im Umkreis mancher Pilze nicht wachsen können, hat eine kaum zu schätzende Anzahl von Menschenleben gerettet. Heute ist uns das bereits so
selbstverständlich, dass wir buchstäblich keinen
Gedanken mehr daran verschwenden.
29
Verhelfen zum
Durchblick:
Auch Zebrafische
gewinnen für das
Studium von Krankheiten immer mehr
Bedeutung.
Biotechnologie und moderne Medizin
Naturstoffe, Gentechnik und
Kombinatorische Chemie
Auf verlorenem
Posten: Pestarzt im
Mittelalter.
Die Infektionskrankheiten sind gemäß einer Statistik
der Weltgesundheitsorganisation WHO weltweit der
Killer Nr. 2, knapp hinter den Herz/Kreislauferkrankungen. In den Industrienationen spielen sie allerdings nur eine geringe Rolle, so dass wir uns hier in
einer trügerischen Sicherheit wiegen. Nur gelegentlich werden wir aus dieser Ruhe aufgeschreckt. Tuberkulose in Amerika wieder auf dem Vormarsch, heißt es
dann zum Beispiel. Oder wir erfahren von Cholera-Epidemien in Ländern der Dritten Welt, von unheimlichen
Erkrankungen durch Ebola- oder Lassa-Viren oder von
Bakterien, die sich förmlich in die Erkrankten hineinfressen können. All das sind – meist pressewirksam
aufbereitete – Beispiele dafür, dass unser Immunsystem in einem ständigen Kampf mit mikroskopisch kleinen Eindringlingen liegt. Meist ist unser Immunsystem
erfolgreich. Aber, wie die obigen Beispiele belegen,
längst nicht immer. In diesen Fällen braucht der Körper
Unterstützung von außen.
Dank der Antibiotika wurde eine wirksame medikamentöse Behandlung möglich. Erstmals konnten bakterielle Infektionen gezielt bekämpft werden. Allerdings bedeutete die großflächige Anwendung von Antibiotika auch, dass man
ungewollt ein intensives
Selektionsprogramm in
Gang setzte. Und zwar
ein Selektionsprogramm
auf Organismen, die
man nun ganz bestimmt
nicht haben wollte; solche nämlich, die gegen
die angewendeten Antibiotika unempfindlich
waren.
Denken wir an die
Eckpfeiler der Genetik,
Mutation und Selektion.
Durch die Anwendung
der Antibiotika wird auf
eine Bakterienpopulation ein immenser Selektionsdruck
ausgeübt.
Unter diesem Druck
werden nur solche Bak-
30
terien überleben können, die aus irgendeinem Grund
gegen die Wirkung des Antibiotikums resistent geworden sind. Bei der riesigen Anzahl von Bakterien gibt es
immer wieder mal eines, das diese Eigenschaft durch
Mutation oder andere genetische Mechanismen erworben hat. Normalerweise würde diese Eigenschaft nicht
von Vorteil sein und womöglich wieder verloren gehen.
Liegt allerdings durch Anwendung des Antibiotikums
ein Selektionsdruck an, rettet die Eigenschaft der Resistenz den Mikroorganismus vor dem Tod. Alle anderen
Bakterien gehen zugrunde, nur das resistente kann
überleben und sich munter weiter teilen. Für den Patienten, dem mit diesem Antibiotikum geholfen werden soll,
möglicherweise eine Katastrophe.
Resistente Formen von Bakterien finden sich
daher – logischer- und bedauerlicherweise gleichermaßen – bevorzugt dort, wo Antibiotika angewendet
werden. Gemeint sind unsere Krankenhäuser. Die breite
Anwendung von Antibiotika macht zwar eine moderne
Intensivmedizin überhaupt erst möglich. Immungeschwächte Personen oder solche mit großflächigen
Wunden könnten sonst nicht überleben. Andererseits
finden sich deshalb in Krankenhäusern zu einem hohen
Prozentsatz auch krank machende, so genannte pathogene Bakterien, die bereits gegen eine Vielzahl von Antibiotika resistent geworden sind. Diese unter dem
Namen Hospitalismus bekannte Tatsache ist ein Horror
für Ärzte und Patienten
gleichermaßen.
Eine
intensive Vorsorge durch
das Sterilisieren von
Räumen und Gerätschaften ist hier unbedingte
Verpflichtung. Aber ganz
ausschließen kann man
eine Infektion nie. Dann
braucht man ein wirksames Antibiotikum.
Diese Spirale
dreht sich seit vielen
Jahrzehnten. Der Einführung eines neuen
Antibiotikums folgt im
Lauf der Zeit die Entwicklung
resistenter
Krankheitserreger. Gegen diese werden wieder neue Antibiotika
eingesetzt und so wei-
Biotechnologie und moderne Medizin
ter und so weiter. Aber so langsam drohen uns die
neuen Antibiotika auszugehen. Neben der intensiven
Suche nach Wirkstoffen aus der Natur können nun mittels gentechnischer Methoden auch bekannte Wirkstoffe auf molekularer Ebene miteinander kombiniert
werden. Vielleicht können wir die Spirale damit wieder
ein Stückchen zu unseren Gunsten drehen.
Grundsätzlich sind bei der Suche nach neuen
Wirkstoffen zwei unterschiedliche Strategien möglich:
zum einen ein gezielter Ansatz, der wie gerade
beschrieben vorhandenes Wissen nutzt und aus den
chemischen Bausteinen bekannter Wirkstoffe neue
entwirft – das rationale Design von Wirkstoffen. Die
Synthese dieser Wirkstoffe kann chemisch beziehungsweise mikrobiologisch/gentechnisch erfolgen.
Zum anderen kann man wie im Fall des klassischen
Screenings ungezielt vorgehen und nach Wirkstoffen
suchen, die uns direkt von der Natur zur Verfügung
gestellt werden. Dabei vertraut man auf einen möglichst hohen Durchsatz von Substanzen aus möglichst
ungewöhnlichen Quellen. Diese Quellen bildeten bislang die vielerlei Organismen in der Natur, aber auch
die Substanzbibliotheken der großen Chemiefirmen. In
den letzten Jahren wurde noch eine neue Quelle
erschlossen, die so genannte Kombinatorische Chemie.
Bei der chemischen Synthese von Oligonukleotiden und Peptiden ist es möglich, die Syntheseschritte nicht mit definierten Einzelbausteinen, sondern mit einem Gemisch aller verfügbaren Einzelbausteine durchzuführen. Lässt man bei der Synthese von
Oligonukleotiden an jeder Position alle vier NukleotidBausteine der DNA zu, dann ergibt sich in wenigen
Synthesezyklen ein Gemisch von unzähligen, in der
Nukleotid-Abfolge jeweils verschiedenen Oligomeren.
Mit wenigen Syntheseschritten hat man eine ungeheure Vielzahl ähnlicher, aber strukturell unterschiedlicher Moleküle erzeugt. Für das klassische Screening,
das auf den hohen Durchsatz unterschiedlicher
Moleküle angewiesen ist, die beste Voraussetzung.
Chemiker haben nun versucht, dieses Prinzip
auch auf andere Substanzklassen anzuwenden. Das
geschickte Mischen von Synthesebausteinen soll eine
möglichst große strukturelle Vielfalt an Molekülen
erzeugen, die sich in Testmodellen screenen lassen.
Diese neue Vorgehensweise steht im krassen Gegensatz zur traditionellen Synthesechemie, die immer auf
die Herstellung einer einzigen, genau definierten
Substanz gerichtet war. Sie erfordert ein hohes Maß
an Planung und logistischem Geschick. Eine große
Herausforderung besteht zum Beispiel darin, aus dem
Gemisch vieler Verbindungen die gesuchte zu identifizieren. Trotz der Schwierigkeiten hat die Kombinatorische Chemie neue Belebung in das Gebiet der Wirkstoffsuche gebracht. Neue apparative Entwicklungen
begleiten sie. Die Kombinatorische Chemie hat sich
bereits als echte Bereicherung für die synthetische
Chemie ganz allgemein erwiesen.
Bei der Entwicklung von Antibiotika hat man sich
zunächst ganz auf die Natur verlassen. In umfangreichen Screeningprogrammen wurde und wird nach
natürlichen Quellen für antibiotisch wirksame Sub-
Kampf im Verborgenen: InfluenzaViren haben sich an
die Oberfläche einer
Zelle geheftet.
stanzen gefahndet. Hier begegnen uns freundliche
Mikroorganismen, von denen – aus bislang nicht vollständig verstandenen Gründen – solche Substanzen
produziert werden. Aber auch Pflanzen oder Tiere kommen als potenzielle Quellen in Frage. Heute dehnt man
die Suche vor allen Dingen auf Mikroorganismen aus,
die ungewöhnliche Standorte besiedelt haben. Dazu
gehören z. B. solche, die sehr hohe Temperaturen oder
Drücke aushalten können.
Auch die synthetische Chemie hat sich schon
früh als hilfreich erwiesen. Aufbauend auf Strukturen
der natürlichen Antibiotika hat man neue Strukturen
hergestellt oder natürliche Strukturen abgeändert.
Gerade die semisynthetischen Antibiotika, in denen
die natürlichen Strukturen chemisch abgeändert werden, waren und sind noch sehr erfolgreich.
Gentechnische Methoden eröffnen ganz neue
Ansatzpunkte. In den letzten Jahren konnten die Gene,
31
Biotechnologie und moderne Medizin
die für die Synthese einzelner Antibiotika verantwortlich sind, großenteils kloniert werden. Daher ist man
jetzt in der Lage, die unterschiedlichen Syntheseschritte durch Austausch von einzelnen Genen miteinander zu kombinieren. Das ermöglicht – zumindest in
der Theorie – Synthesen, die ein Chemiker selbst mit
den modernsten Methoden nicht in sinnvollen Ausbeuten hinbekommt. Allerdings sind auch die Ausbeuten
bei den gentechnischen Ansätzen meist noch unbefriedigend. Hier ist noch eine Menge Arbeit erforderlich.
Durch Anwendung gentechnischer Methoden
gewinnt man auch ein besseres Verständnis pathogener Mikroorganismen und erkennt die „Schwachstellen“ dieser Mikroorganismen besser. Vor allem die
Daten aus den Genomprojekten werden uns hier noch
viele Erkenntnisse liefern. Das erlaubt den Aufbau von
Testsystemen, durch die neue und besonders wirksame Antibiotika gefunden werden können. Man kann
auch abschätzen, ob ein Mikroorganismus gegen die
Wirkung eines neuen Antibiotikums rasch resistent
werden kann. Natürlich wird man bevorzugt Antibiotika entwickeln, bei denen das nicht der Fall ist.
Auch an anderer Stelle wirkt die Gentechnik
quasi im Verborgenen. Jedes Jahr werden Stämme von
Influenza-Viren, die uns mit steter Regelmäßigkeit
heimsuchen und zu mehr oder minder schweren Grippefällen führen können, genauestens untersucht. Die Wissenschaftler entscheiden dann, ob es sich bei den
immer wieder veränderten Influenza-Stämmen um sol-
„Polizei-Schutz“:
Während der Grippe
Epidemie 1918 versuchen sich Polizisten in Seattle gegen
das Influenza Virus
zu schützen.
32
che handelt, die das menschliche Immunsystem bereits
kennen sollte, oder um neue. Im letzteren Falle würde
man schleunigst darangehen, einen Impfstoff herzustellen. Bei der Klassifizierung der Influenza-Viren greifen
die Wissenschaftler heute auch auf die Methode des
genetischen Fingerabdrucks zurück, die wir an anderer
Stelle noch etwas genauer kennen lernen werden.
Influenza-Viren und Infektionskrankheiten
Die Grippe wird als Krankheit häufig unterschätzt. Sie
lehrt uns ganz nebenbei etwas über das Risikoempfinden des Menschen. Wenn ein Risiko fester
Bestandteil unseres Lebens ist, nehmen wir es gar
nicht mehr besonders war.
Das Risiko, an Grippe zu erkranken, ist ausgesprochen groß. Die Auswirkungen dieser Erkrankung
allerdings sind vermeintlich relativ gering. Ein
bisschen Unwohlsein, vielleicht Fieber und schlimmstenfalls ein paar Tage Bettruhe. Doch das kann sich
mit dem vorherrschenden Virusstamm schlagartig
ändern.
Für das Jahr 1918 wird die Zahl der Toten, die von
einer Grippeepidemie gefordert wurden, auf über 20
Millionen weltweit geschätzt. Das Influenza-Virus
kann also hochinfektiös und tödlich sein. Aus der jüngeren Vergangenheit sind Epidemien bekannt, die von
der so genannten Asiatischen Grippe 1957 oder von der
Hongkong-Grippe 1968 ausgelöst worden
sind. Auch diesen Grippewellen sind Millionen von Kranken und Tausende von Toten
anzulasten. Auch aus der jüngeren Vergangenheit sind, besonders wieder in Asien,
Epidemien von allerdings nur begrenztem
Ausmaß bekannt.
Das Influenza-Virus zeichnet sich
dadurch aus, dass es seine äußere Gestalt,
seine Hülle, ständig ändern kann. Dadurch
unterläuft es die Fähigkeit des menschlichen Immunsystems, sich eine Konfrontation mit einem bestimmten Erreger zu merken und beim nächsten Mal besser gerüstet
zu sein. Eine Infektion mit einem InfluenzaVirus ist für unser Immunsystem immer
wieder neu.
Nicht alle Viren haben diese Fähigkeit. Nur deshalb konnte es gelingen, das
Variola-Virus, das die gefürchteten Pocken
Biotechnologie und moderne Medizin
verursacht, praktisch auszurotten. Der gegen VariolaViren entwickelte Impfstoff hat zuverlässig geschützt
und es haben sich keine neuen Varianten des Virus
gebildet. Die Pocken gelten daher als besiegt. Nur
noch in zwei Hochsicherheitslabors, eines in den USA
und eines in Russland, sind solche Viren eingelagert.
Da die Erbinformation des Variola-Virus vollständig
bekannt ist, könnten auch sie vernichtet werden. An
das Variola-Virus würden dann nur noch elektronische
Einträge in verschiedenen Datenbanken erinnern.
Auch die begeistertsten Artenschützer werden dagegen kaum etwas einzuwenden haben.
Der Vergleich zwischen Influenza- und VariolaViren belegt die These sehr eindrucksvoll, nach der
eine hohe genetische Varianz für das Überleben einer
Spezies von entscheidender Bedeutung ist. Das Prinzip
Mutation und Selektion könnte daher auch in Variation
und Selektion umbenannt werden. In der Natur ist eine
Spezies begünstigt, deren Mitglieder – unter Nutzung
aller vorhandenen Mechanismen – möglichst große
Unterschiede in der Ausprägung einzelner Merkmale
aufweisen. Das Influenza-Virus hat hier einen ganz
besonderen Trick entwickelt. Stämme, die nur entweder den Menschen oder Vögel infizieren können, sind
gleichermaßen befähigt, Schweine zu befallen. Im
Schwein können diese Stämme Teile ihres genetischen Materials austauschen. Daraus können dann
Stämme resultieren, die für den Menschen wieder
besonders gefährlich sind.
2.8 Mit Killerzellen gegen
Tumore
Neue Waffen im Kampf gegen Krebs
Gerade für die Immunologie hat die moderne Biotechnologie entscheidende Fortschritte gebracht. Die in
der Immunologie gewonnenen Erkenntnisse machen
nun unter anderem neue Ansätze in der Behandlung
von Krebs möglich. Krebszellen werden vom Immunsystem unterschiedlich gut als verändert, als fremd
erkannt. Im Krankheitsfall reicht diese Erkennung aber
ganz offensichtlich nicht aus, um die Tumorzellen zu
eliminieren. Man kann nun dem Immunsystem des
Menschen etwas auf die Sprünge helfen. Beispielsweise weiß man, dass Tumorgewebe von bestimmten
weißen Blutkörperchen, den Lymphozyten, angegriffen
wird. Lymphozyten, die das besonders effizient tun,
werden als tumorinfiltrierende Lymphozyten (TIL)
bezeichnet. Wenn Tumorgewebe aus einem Patienten
entfernt wird, dann können aus diesem Gewebe die
TILs isoliert und in vitro gezüchtet werden. Die wachsenden TILs werden nun mit einem Protein versetzt,
das eine stimulierende Wirkung auf die Immunzellen
hat. Die Wirkung des Proteins ist mit einem Kommando vergleichbar, das einen Wachhund scharf macht. Zu
der Klasse „scharfmachender“ Proteine gehören verschiedene Interleukine, vor allem Interleukin-2, aber
auch der Faktor GM-CSF und andere. Eine Reihe dieser
Lebenswichtige
Patrouille: Krebszellen können vom
Immunsystem
erkannt und
attackiert werden.
33
Biotechnologie und moderne Medizin
Stoffe werden heute auch als Medikamente eingesetzt
und werden im Produktteil der Broschüre vorgestellt.
Die behandelten Zellen werden den Patienten reinfundiert. Sie patrouillieren jetzt quasi mit geschärften
Sinnen durch den Körper und sie greifen Tumorzellen
noch aggressiver an.
Eine andere Idee geht dahin, die Krebszellen
selbst mit einem Alarmsignal auszustatten, damit sie
das schlummernde Immunsystem wachrütteln können.
Um dies zu erreichen führt man in Krebszellen die Gene
ein, deren oben erwähnten Proteinprodukte eine stimulierende Wirkung auf Immunzellen haben. Dadurch
macht die Tumorzelle das Immunsystem nachdrücklich
auf sich aufmerksam. Den Immunzellen fallen dann
auch Unterschiede auf, die sie sonst ignorieren würden
(vergleiche Kasten, S. 20). Natürlich müssen die Krebszellen dazu erst einmal isoliert und dann außerhalb des
Körpers gentechnisch mit den entsprechenden Genen
versehen werden. Ist das geschehen, werden die
Krebszellen durch Bestrahlung abgetötet – man will
ausschließen, dass sie im Körper womöglich unkontrolliert zu wachsen beginnen – und den Patienten reinfundiert. In Tierversuchen hat man mit diesem Verfahren
bereits ermutigende Resultate erzielt. Offenbar werden diese Krebszellen vom Immunsystem tatsächlich
besser erkannt und – nachdem die verräterischen Oberflächenstrukturen erst einmal identifiziert sind – auch
verwandte Tumorzellen angegriffen. Besonders fasziniert die Möglichkeit, Metastasen auf diese Art zu
bekämpfen. Die meisten Krebspatienten erliegen nicht
einem Primärtumor, sondern erst später dessen Metastasen. Ein Erkennen von Tumorzellen durch das
Immunsystem würde bedeuten, dass sämtliche von
einem bestimmten Tumor abstammenden Zellen überall im Körper aufgespürt und unschädlich gemacht werden können, also auch entstehende Metastasen.
Einen anderen Ansatzpunkt, diesmal allerdings
nicht auf ganzen Zellen basierend, bietet die bereits
erwähnte Erkenntnis, dass Tumoren in ihrem Wachstum von der Versorgung mit Sauerstoff und Nährstoffen abhängen. Ein entscheidender Schritt des Tumorwachstums, vielleicht der entscheidende überhaupt,
ist daher eine Aktivierung von Blutkapillaren, die zum
Tumor hinwachsen müssen. Passiert das nicht, bleibt
der Tumor klein und erreicht nur eine Größe von 1–2
Kubikmillimetern. Er wird dann meist gar nicht wahrgenommen. Es ist nun gelungen, die Stoffe zu identifizieren, die das Wachstum der Blutkapillaren, die so
genannte Angiogenese, regulieren. Im Zusammen-
34
hang mit Krebs sind besonders solche Stoffe interessant, die als Inhibitoren des Wachstums wirken und
deshalb als Angiogenese-Inhibitoren bezeichnet werden. Rund 20 solcher Inhibitoren befinden sich derzeit
in unterschiedlichen Phasen der klinischen Prüfung,
fünf davon bereits in der Klinischen Phase III und damit
in der letzten Testphase vor der Zulassungsprüfung.
Wie immer bei solchen Entwicklungen bleibt abzuwarten, ob sich die großen Hoffnungen, die sich mit ihnen
verbinden, auch wirklich erfüllen.
2.9 Von Differenzierung und
Differenzen
Zellen als potenzielle Medikamente
Doch zurück zu ganzen Zellen und ihrem möglichen Einsatz als Therapeutika. Hier rückte eine ganz bestimmte
Sorte von Zellen in den Mittelpunkt des Interesses, die
so genannten Stammzellen. Stammzellen besitzen die
Fähigkeit, sich immer wieder teilen und die verschiedensten Entwicklungsrichtungen einschlagen zu können. In der Fachsprache heißt das: sich unterschiedlich
„differenzieren“ zu können. Sie bilden die Ausgangsbasis für die Entwicklung von Geweben und Organen.
Die befruchtete Eizelle ist gewissermaßen die
Urkeimzelle des ganzen Organismus. Aus ihr gehen
alle anderen Zelltypen hervor. Doch schon nach wenigen Zellteilungen verliert sich diese Totipotenz; einige
Tochterzellen entwickeln sich zur Plazenta, die anderen zum Embryo. Die embryonalen Stammzellen sind
immer noch sehr unterschiedlich differenzierbar. Aus
ihnen entstehen alle im Organismus benötigten Zelltypen. Man bezeichnet sie daher als pluripotent. Gewebetypische Stammzellen findet man in vielen Geweben
des ausgewachsenen Organismus. Dort sorgen sie für
den Ersatz von ausgefallenen Zellen. Es gibt Blutstammzellen im Knochenmark, Nervenstammzellen im
Gehirn oder Muskelsatellitenzellen im Muskelgewebe. Ihre Fähigkeit, sich in verschiedene Zelltypen ausdifferenzieren zu können, ist jedoch beschränkt. Knochenmarkzellen können zwar verschiedene Blutzelltypen bilden, aber keine Muskel- oder Nervenzellen; sie
sind nur noch multipotent. (Ganz so streng scheinen
diese Beschränkungen nach den neuesten Erkenntnissen allerdings doch nicht zu gelten, wie weiter unten
noch gezeigt wird.)
Aufgrund ihrer Pluripotenz sind die humanen
embryonalen Stammzellen (hES) für die biomedizini-
Biotechnologie und moderne Medizin
sche Forschung von großem Interesse. Als man Anfang
1999 erstmals Methoden entwickelt hatte, humane
embryonale Stammzellen in Kultur zu halten, also pluripotente menschliche Zelllinien zu erzeugen, taten sich
bislang ungeahnte Möglichkeiten auf. Die Herstellung
neuer Gewebezellen und Gewebe (das sog. tissue
engineering) oder auch ganzer Organe für Transplantationen rückte in den Bereich des Möglichen. Erfolge
dieser Art hatte es bislang nur mit Hautzellen gegeben.
Allerdings ist die Forschung mit humanen
embryonalen Stammzellen, die aus Föten oder künstlich befruchteten Eizellen gewonnen werden, heftig
umstritten und in einigen Ländern, u.a. Deutschland,
eindeutig verboten. Denn die humanen embryonalen
Stammzellen gelten als Embryonen im Sinne des
Embryonenschutz-Gesetzes, mit denen nicht geforscht
werden darf.
Als alternative Quelle für humane embryonale
Stammzellen kommen geklonte Zellen in Betracht. Zu
ihrer Herstellung entfernt man im Prinzip den Kern
einer befruchteten (Säugetier-)Eizelle und ersetzt ihn
durch den Zellkern einer ausgewachsenen menschlichen Zelle. Im Ergebnis erhält man eine „befruchtete“
(Säugetier-)Eizelle, deren embryonale Tochterzellen
das Erbgut der menschlichen Körperzelle besitzen. Aus
ihnen gewinnt man nach Reprogrammierung die wertvollen Stammzellen. Auf die Methode des Klonens
wird in Kapitel 3.5 näher eingegangen. Über erste Forschungen mit Rindereizellen und menschlichen Zellkernen ist bereits berichtet worden. Die Arbeiten
haben nach Auskunft der Forscher zum Ziel, künstliche
Organe herzustellen, die zu den individuellen Gewebetypen von Transplantationspatienten passen. Die
ethische Bewertung solcher als „therapeutisches
Klonen“ bezeichneten Experimente ist jedoch ebenfalls umstritten.
Während die Debatten um das Arbeiten mit
humanen embryonalen Stammzellen immer heftiger
wurden, brachten die Zellforscher mit einer Reihe sensationeller Ergebnisse ein altes Dogma zum Einsturz.
Die multipotenten Stammzellen in den Geweben ausgewachsener Organismen waren anscheinend flexibler, als man bislang angenommen hatte! In kurzer
Folge erreichten Berichte die Öffentlichkeit, in denen
die Umwandlung von Blutstammzellen in Nervenzellen
und umgekehrt oder auch von Blutstammzellen in
Leberzellen beschrieben wurde. Sogar die Bildung von
Hirnzellen, Leberzellen und allen drei Arten von Muskelzellen aus einer einzigen, allerdings seltenen
Stammzellsorte des Knochenmarks wurde berichtet.
Offenbar ist es doch möglich, durch Beeinflussung der komplizierten Wachstumsbedingungen die
Stammzellen der Gewebe „umzuprogrammieren“.
Mit dieser Technik könnte sich in vielen Fällen die Verwendung humaner embryonaler Stammzellen vermeiden lassen. Außerdem können „umprogrammierte“
Stammzellen den Vorzug besitzen, vom Patienten
selbst abzustammen. Bei Organtransplantationen vermiede man damit die sonst bei Transplantationen üblichen Abstoßungsreaktionen. Zur Jahrhundertwende
wurde untersucht, in welchen Eigenschaften sich
die „erwachsenen“ Stammzellen von den humanen
embryonalen Stammzellen unterscheiden. Noch steckt
die Stammzellforschung in den Kinderschuhen. Doch
gelangen bereits erstaunliche Entdeckungen. Glaubte
man z.B. bislang, dass sich Hirnzellen nicht mehr vermehren lassen, so entdeckte man vor kurzem, dass
neuronale Stammzellen im Hirn von Vögeln neue Neuronen bilden können.
Abgesehen von den Möglichkeiten für die Enträtselung der Entwicklung von Geweben und ganzen
Organismen bieten Stammzellen therapeutische Perspektiven, die noch vor wenigen Jahren als Science
Fiction abgetan worden wären. Muskelstammzellen,
35
Klone können auf
unterschiedliche
Weise entstehen;
beim „DollyVerfahren“ wurde
eine entkernte
Eizelle mit der
genetischen Information einer Euterzelle ausgestattet.
bare Blutstammzellen ließen sich zudem gentechnisch
mit therapeutisch wichtigen Eigenschaften ausrüsten,
z.B. mit der Resistenz gegen Zytostatika.
2.10 Heilen mit Genen
Die Somatische Gentherapie
Durch die ersten
Teilungen einer
befruchteten Eizelle
bildet sich ein
scheinbar
unstrukturierter
Zellhaufen,
eine Blastocyste.
aus denen sich Herzmuskelgewebe züchten lässt, zeigten im Tierversuch bereits ihr Potenzial zur Therapie
schwerer Herzkrankheiten. Zuckerkranke könnten in
Zukunft von Bauchspeicheldrüsen-Inselzellen profitieren, die aus Stammzellen ex vivo gezüchtet und dann
implantiert werden. Eine deutsche Firma züchtet
bereits neues Hautgewebe aus Haarwurzeln, die auch
Oberhautstammzellen enthalten. Nur 50 bis 100 Haare
werden dazu benötigt. Innerhalb von vier Wochen
wachsen daraus in speziellen Kulturen „auflegbare“
Hautzellen. Humane neuronale Stammzellen könnten
sich vielleicht schon bald zur Behandlung von Rückenmarkverletzungen oder der Parkinsonkrankheit, bei der
Hirnzellen zerstört werden, einsetzen lassen. Tierversuche mit Mäusen und Ratten zeigten hier positive
Resultate.
Auch die schwierige Kultivierung von Stammzellen machte große Fortschritte. Heute kann man bereits
Blut- und Nervenstammzellen ex vivo vermehren und
monatelang in Kultur halten. Das bedeutet einen
großen Fortschritt z.B. für die Chemotherapie von
Krebserkrankungen. Hier könnten beliebig vermehrbare Blutstammzellen einen oftmals folgenschweren
Engpass beseitigen, weil Zytostatika neben den Tumorzellen auch Blut bildende Zellen zerstören. Wir werden
darauf bei der Vorstellung von Medikamenten wie GCSF oder GM-CSF zurückkommen. Zurzeit muss man
noch Knochenmarkzellen von geeigneten Spendern
transplantieren, um die Blutbildungskapazität des Patienten nach der Behandlung zu regenerieren. Kultivier-
36
Der letzte Satz des vorangegangenen Kapitels könnte
sehr wohl auch das aktuelle einleiten. Anfang der 90er
Jahre machte ein neues Verfahren von sich reden: die
Somatische Gentherapie. Das Verfahren folgte der
Überlegung, dass es besser ist, ein Übel an der Wurzel
zu packen, als ständig nur die Symptome zu kurieren.
Die Somatische Gentherapie kann prinzipiell dort eingesetzt werden, wo eine Krankheit auf einem singulären Gendefekt beruht. Bei einer besonders schweren Form der Immunschwäche gehen beispielsweise
weiße Blutkörperchen zugrunde, weil den Zellen ein
bestimmtes Enzym, die Adenosin-Desaminase (ADA),
fehlt. Mit dem Ausfall der weißen Blutkörperchen
bricht der Schutzwall des Körpers gegen Mikroorganismen zusammen. Die Patienten haben normalerweise keine Überlebenschancen und sterben schon sehr
früh an Infektionen. Die Krankheit ist sehr selten. In
den 70er Jahren gingen Bilder des so genannten „Bubble Boy“ um die Welt, eines Jungen, der an dieser
schweren Immunschwäche litt und in einem keimfreien Zelt von der Umwelt abgeschirmt werden musste.
Er starb trotz dieser Maßnahmen schon früh. Im Lauf
der Zeit lernte man, das fehlende Enzym zu reinigen
und den Patienten zu applizieren. Damit ließen sich die
Überlebenschancen und die Lebensqualität für die
Patienten deutlich verbessern.
Die Methoden der Gentechnik zeigten, dass die
genetische Information für das Enzym ADA bei den
Patienten fehlerhaft war. Da die Krankheit offenbar
allein durch diesen Fehler verursacht wurde, sahen die
Mediziner eine neue, faszinierende Möglichkeit der
Behandlung. Könnte es möglich sein, die intakte genetische Information für das Enzym in die entsprechenden Zellen der Patienten einzubringen? Diese müssten
dann ja eigentlich auch wieder in der Lage sein, das
intakte Enzym zu produzieren, und der Patient dadurch
gesunden.
Diese Möglichkeit wurde in den USA konsequent untersucht. Die erforderlichen Techniken waren
dank jahrelanger Forschung auf unterschiedlichen
Gebieten verfügbar. So wurden einer jungen Patientin
Biotechnologie und moderne Medizin
Blutzellen entnommen und außerhalb ihres Körpers
mit den Methoden der Zellkultur vermehrt. In diese
Zellen wurde dann das zuvor isolierte, intakte Gen für
das Enzym ADA eingebracht. Nach vielen Arbeitsschritten standen genügend veränderte Zellen zur Verfügung, um sie der Patientin wieder zurückzugeben.
Diese überstand die ganze Prozedur problemlos und ihr
Gesundheitszustand verbesserte sich.
Somatische Gentherapie in der Diskussion
Die Geschichte des ersten gentherapeutischen Experiments ist schnell niedergeschrieben. Doch gingen ihr
heftige Debatten voraus. Die genaue Art und Weise
des geplanten Vorgehens musste von den beteiligten
Forschern und Ärzten einem Gremium zur Begutachtung vorgelegt werden. Diese Fachleute waren längst
nicht alle der Meinung, dass die vorgeschlagene
Behandlungsmethode schon ausgereift genug sei. Von
einer wirklichen Therapie könne nicht die Rede sein.
Außerdem strengte Jeremy Rifkin, der vielleicht
bekannteste Gentechnik-Gegner in den Vereinigten
Staaten, mit seiner Organisation sogar eine Klage vor
dem Bundesgerichtshof in Washington an, um die
Durchführung der Versuche zu verhindern. Doch French
Anderson, ein Motor bei der Entwicklung gentherapeutischer Verfahren, trieb unerbittlich an. Sowohl die
wissenschaftlichen wie nichtwissenschaftlichen Vorwürfe, denen er sich ausgesetzt sah, schienen ihn nur
noch mehr zu beflügeln. Eine seiner Begründungen
ging lapidar in die Richtung, dass seine Patienten mit
dem Sterben leider nicht warten würden, bis auch die
letzten Zweifel ausgeräumt seien. Dennoch gab es
viele Kritiker, nach deren Meinung hier viel zu schnell
vorgegangen wurde. So wie Anderson mit dem
Abwenden von Leid und der Rettung von Leben argumentierte, so warfen ihm die Kritiker vor, das Leben
der Patienten seinem wissenschaftlichen Ehrgeiz
zuliebe leichtfertig aufs Spiel zu setzen. Diese zum Teil
sehr emotionale Auseinandersetzung zog sich über
viele Monate hin.
Der oben grob skizzierte Versuch konnte dann im
Jahr 1990 doch begonnen werden. Das positive Ergebnis fand eine fast euphorische Würdigung in der internationalen Presse. Es zeichnete sich ja ein Weg ab, auf
dem eine Krankheit womöglich an der Wurzel zu
packen war. Statt einer Linderung von Symptomen bot
dieses Vorgehen die Möglichkeit, die eigentliche Ursa-
che der Krankheit auszuräumen. Womöglich stand
eine Revolution in der Medizin bevor. Unruhe entstand
auch in den großen Pharmafirmen. Benötigte man am
Ende schon in absehbarer Zeit kaum noch Medikamente, weil die meisten Krankheitsursachen mit diesem
Verfahren ausgeräumt sein würden? Stand ein völliger
Umbruch in der medizinischen Versorgung bevor?
In der Berichterstattung wurde dabei völlig übersehen, dass die normale Therapie der Patientin (die
kleine Ashanti De Silva wird als erste Patientin der
Somatischen Gentherapie wohl in die Geschichte der
Medizin eingehen) nie abgesetzt wurde. Man konnte
zunächst eigentlich nur feststellen, dass es ihr besser
ging als vorher. Allerdings konnte man nicht definieren, welchen Anteil daran die Somatische Gentherapie
hatte. Denn teils wurde das fehlende Enzym von den
gentechnisch veränderten Zellen im Körper der Patientin selbst produziert, teils wurde es weiterhin medikamentös appliziert. Die Menge des medikamentös verabreichten Enzyms konnte im Laufe der Zeit immerhin
deutlich gesenkt werden. Ein positives Signal also,
aber kein Grund zur Euphorie.
Im September des Jahres 1999 hat die Somatische Gentherapie einen schweren Rückschlag erlitten.
Bei der Durchführung eines Tests starb ein 18-jähriger
Patient, der wegen eines keineswegs lebensbedrohenden Enzymmangels behandelt worden war. Der
Patient erlag offenbar einer Abwehrreaktion gegen die
als Genfähren verwendeten, gentechnisch veränderten Adenoviren. Dieser Vorfall hat neue Diskussionen
um die Anwendung der Somatischen Gentherapie ausgelöst. Er zeigte sehr deutlich, dass die Methoden
noch nicht ausgereift sind und insbesondere die verwendeten Genfähren verbessert werden müssen. Es
herrscht aber die Meinung vor, dass mit einer kontrollierten Testung des Verfahrens weitergemacht werden
37
Bubble boy: Beim
völligen Versagen
des Immunsystems
kann jede Infektion
tödlich sein. Die
Patienten müssen
gegen die Außenwelt abgeschirmt
werden.
Biotechnologie und moderne Medizin
Das Prinzip der
Somatischen Gentherapie in vitro:
Den Patienten werden Zellen entnommen, gentechnisch
verändert und
zurückgegeben.
Beim nicht dargestellten in vivo
Verfahren werden
die Zellen direkt im
Körper des Patienten gentechnisch
verändert.
soll. Im Erfolgsfall werden große Vorteile für die Patienten gesehen.
Wegen der großen Hoffnungen, die sich an das
neue Verfahren generell knüpften, wurden schon sehr
schnell auch Versuche mit Patienten durchgeführt, die
an Krebs, Cystischer Fibrose oder anderen Krankheiten
litten. Völlig neue Strategien im Kampf gegen diese
Krankheiten zeichneten sich ab. Die Forscherteams
wurden von Patienten, die von der neuen Methode profitieren wollten, geradezu bestürmt. Doch die Ergebnisse waren ernüchternd.
Es hat sich gezeigt, dass noch zu viele Fragen
ungeklärt sind. Der Schritt in die klinische Praxis hat
Erwartungen geweckt, die von dieser jungen Methode
noch nicht erfüllt werden können. Die vorhandenen
methodischen Instrumente sind längst noch nicht ausreichend und es muss sicher noch viel grundlegende
Arbeit in das Verfahren investiert werden. Durch die
schnelle Anwendung am Patienten wird leicht verkannt, dass die routinemäßige Durchführung gentherapeutischer Verfahren noch eine ganze Reihe von
Jahren auf sich warten lassen wird. Andererseits
zeichnet sich immer wieder ab, dass die Methode in
bestimmten Bereichen Erfolg versprechend eingesetzt
werden kann. Beispiele dafür finden sich im Bereich
der Herzerkrankungen, wo nach Ballondilatationen die
Restenose, also das Wiederverschließen der Blutgefäße an der gleichen Stelle, verhindert werden soll.
Die Hoffnung, dass die Somatische Gentherapie
das medizinische Parkett im Sturm erobern würde, hat
sich also zunächst einmal nicht erfüllt. Doch denken
38
wir einfach an die Entwicklung der Organtransplantation zurück. Erinnern wir uns daran, dass viele Jahre und
Jahrzehnte vergingen, bevor die heute üblichen hohen
Erfolgsquoten erreicht waren. Mit Blick auf die Somatische Gentherapie darf man die Hoffnung hegen, dass
sie schon in bedeutend kürzerer Zeit ihren Platz in der
Medizin finden wird. Doch wird noch viel Arbeit erforderlich sein. Es zeichnet sich aber nicht nur für notorische Optimisten ab, dass dieses elegante Verfahren
zukünftig eine wichtige Bereicherung in unserem
medizinischen Repertoire sein wird.
2.11 Schnell und präzise
Die Möglichkeiten der genetischen
Diagnostik
Die genetische Diagnostik beginnt mit der mikroskopischen Betrachtung von Chromosomen. Veränderungen
in Anzahl oder Gestalt der Chromosomen können den
Verdacht nahe legen, dass ein bestimmter Defekt zur
Ausprägung kommen wird. Ein bekannter Fall ist die
Trisomie 21, bei der eine zusätzliche Kopie von Chromosom 21 in den Zellen vorhanden ist. Die Folge ist
das Down Syndrom, das auch unter dem Namen Mongolismus bekannt ist. Aber schon das Fehlen oder der
Austausch von Chromosomenteilen kann unter dem
Mikroskop erkannt und mit bestimmten Krankheiten in
Verbindung gebracht werden.
In molekulare Dimensionen stößt man vor, wenn
eine Krankheit an eine leicht nachweisbare Veränderung
auf DNA-Ebene gekoppelt ist. Bei solchen leicht nachweisbaren Veränderungen handelt es sich zum Beispiel
um das Fehlen einer Schnittstelle für ein Restriktionsenzym. Eine derartige Veränderung tritt in der DNA recht
häufig auf und ist tatsächlich einfach zu detektieren.
Rein zufällig kann eine derartige Veränderung mit dem
Auftreten einer bestimmten Krankheit korreliert sein.
Genetisch gesprochen: Zwei Mutationen sind unabhängig voneinander entstanden, die eine führt zum Auftreten der Krankheit, die andere zum Fehlen der Restriktionsschnittstelle. Beide Mutationen liegen auf der DNA
nicht allzu weit voneinander entfernt. Daher werden sie
fast immer gemeinsam vererbt. Man kann aus dem leicht
nachweisbaren Fehlen der Restriktionsschnittstelle
deshalb indirekt auf das Vorliegen der Krankheit
schließen. Allerdings kann die Restriktionsschnittstelle
vom Gen, das die Krankheit verursacht, durch so genannte Rekombinationsereignisse getrennt werden. Je wei-
Biotechnologie und moderne Medizin
ter das interessierende Gen und die Restriktionsschnittstelle auseinander liegen, desto häufiger wird das
geschehen. Die Aussage ist daher immer mit einiger
Unsicherheit behaftet. Die Unterschiede in der Anzahl
von Schnittstellen für Restriktionsenzyme werden ziemlich umständlich als Restriktionsfragment-Längen-Polymorphismen bezeichnet und mit RFLP abgekürzt.
Die DNA-Analyse gestattet aber noch sehr viel
genauere Aussagen. Das menschliche Genom besteht,
so schätzt man, aus etwa 3 Milliarden Basenpaaren.
Rund 140.000 Gene sollen in der gesamten DNA verschlüsselt sein, wobei noch nicht einmal 10% der insgesamt vorhandenen Basenpaare für die Speicherung der
genetischen Information genutzt werden. Welche Funktion die Hauptmasse der Basenpaare eigentlich hat, weiß
man heute noch gar nicht. Wenn das Humane Genomprojekt beendet sein wird, ist man vielleicht schlauer.
Trotz der immens großen und auf den ersten
Blick unüberschaubaren Zahl von Nukleotiden im
menschlichen Genom kann man heute detaillierte Analysen durchführen. Denn man kann bekannte, kurze
DNA-Sequenzen im Genom genau identifizieren. Das
Prinzip ist verblüffend einfach. Man benutzt dazu so
genannte DNA-Sonden.
Zunächst erscheint es fast unmöglich, aus 3 Milliarden Basenpaaren eine Abfolge von beispielsweise
nur etwa 20 gezielt herauszufinden. Der Vergleich mit
der Nadel im Heuhaufen drängt sich auf, nur dass es
diesmal eine Nadel in einem riesigen Haufen anderer
Nadeln ist. Doch denken wir einmal an das Modell der
DNA zurück. Da vier verschiedene Nukleotide vorhanden sind, ergeben sich für eine definierte Position in
der Nukleotidkette statistisch vier Möglichkeiten
dafür, wie sie besetzt sein kann. Bei zwei aufeinander
folgenden Positionen ergeben sich bereits 16 Möglichkeiten der Anordnung – das folgt einfach aus der
Wahrscheinlichkeitsrechnung durch die Multiplikation
von 4 mit 4. Man kann das selbst überprüfen, indem
man sich die Kombinationen nebeneinander schreibt.
Bei 3 Positionen ist man bereits bei 64 Möglichkeiten
angekommen. Manch einer wird sich an die Geschichte mit dem Schachbrett und den Reiskörnern erinnert
fühlen, obwohl die zugrunde liegende Mathematik
etwas unterschiedlich ist. Die Eigenschaft, in wenigen
Schritten zu astronomischen Zahlen zu gelangen, ist
beiden gemeinsam. Für eine Länge von 20 Nukleotiden
in der DNA ergeben sich bereits mehr als eine Billion
Möglichkeiten der Anordnung. Dagegen erscheint
selbst die zunächst riesige Zahl von 3 Milliarden klein.
1
2
6
7
8
13
14
15
19
20
4
3
9
21
5
10
11
12
16
17
18
22
X
Und das bedeutet rein rechnerisch, dass eine definierte Abfolge von 20 Nukleotiden in der Gesamtheit der
menschlichen DNA ein Unikat sein kann. Und dank dieser Einmaligkeit kann man eine solche Abfolge auch
aufspüren.
Tatsächlich ist dieses kurz angerissene Prinzip
die Grundlage vieler wichtiger Verfahren in der Gentechnik. Das gezielte Auffinden von Genen aus Genbanken ist dabei sicher eines der wichtigsten. Voraussetzung ist immer, dass man eine Vorstellung von der
gesuchten Zielsequenz hat. Man kann dann diese
Sequenz chemisch synthetisieren, mit einem Marker
versehen und mit der zu untersuchenden DNA reagieren lassen. Eine Bindung wird nur erfolgen, wenn die
gesuchte Zielsequenz vorhanden ist. Die einzelsträngige Sonde bindet sich dann nach dem Komplementaritätsprinzip an den Zielstrang.
Die Methode ist zu einer solchen Perfektion
entwickelt worden, dass man in der Abfolge von 20
Nukleotiden sogar erkennen kann, ob es an einer Position innerhalb der Abfolge eine Änderung gegeben hat.
Eine solche Änderung, bei der es sich um eine klassische Mutation handeln würde, kann ja dramatische
Konsequenzen haben. Wie bereits beschrieben wurde,
kann ein einziger solcher Austausch den Unterschied
zwischen dem normalen Wachstum einer Zelle oder
Krebs bedeuten. Und genau diesen Unterschied kann
man mittels genetischer Diagnosen feststellen.
Das Verfahren der genetischen Diagnose kommt
dabei mit sehr geringen Mengen an Ausgangs-DNA
aus. Diese Tatsache ist nicht selbstverständlich, son-
39
Down Syndrom:
Die paarweise
Sortierung der
väterlichen und
mütterlichen
Chromosomen weist
die Trisomie 21
nach, bei der die
Zellen ein zusätzliches Chromosom
21 enthalten.
Y
Biotechnologie und moderne Medizin
dern geht auf die Entwicklung der Polymerasekettenreaktion zurück. Die Methode wird international als
PCR bezeichnet. Sie erlaubt es, eine bekannte DNAZielsequenz millionenfach anzureichern. Durch diesen
Kunstgriff werden viele Anwendungen der modernen
Diagnostik überhaupt erst möglich.
Die Polymerasekettenreaktion
(polymerase chain reaction, PCR)
Wie in der Legende
mit den Weizenkörnern wird bei der
PCR durch sukzessive Verdoppelungsschritte eine enorme
Vervielfältigung von
DNA-Fragmenten
erreicht.
Der beste Beweis dafür, dass geniale Ideen oft verblüffend einfach sind, ist die PCR. Bis zu ihrer Entdeckung
bereitete die Präparation von DNA aus geringen Mengen
biologischen
Materials große Probleme. Heutzutage ist
das kein Problem
mehr. Bei Entwicklung
der PCR sah man wieder einmal der Natur
über die Schulter: Man
nimmt eine doppelsträngige AusgangsDNA – ein einziges
Molekül reicht theoretisch aus – und erhöht
die Temperatur so
lange, bis sich die beiden Einzelstränge voneinander trennen. Dann gibt man
kurze synthetische DNA-Fragmente hinzu, die zu den
Enden auf den Einzelsträngen komplementär sind und
beim Abkühlen an diese binden (Hybridisierung). Es
bilden sich kurze Doppelstrangabschnitte, die als
Startpunkte für eine Auffüllreaktion dienen, bei der
ähnlich wie bei der DNA-Replikation in vivo ein Einzelstrang zum Doppelstrang ergänzt wird. Nur dass die
Reaktion diesmal im Reagenzglas, also in vitro,
abläuft. Die für PCR-Reaktion benötigten Enzyme und
Chemikalien sind alle käuflich. Da die kurzen synthetischen DNA-Fragmente als Starter für die Auffüllreaktion fungieren, werden sie als „Primer“ bezeichnet.
Nach beendeter Reaktion sind aus den zwei getrennten Einzelsträngen zwei Doppelstränge geworden, die
identisch sind. Eine Replikation der DNA in vitro also.
Jetzt kann man das Spiel wiederholen und nochmals die
Temperatur erhöhen, dann die Einzelstränge nach
Abkühlung mit den Primern hybridisieren und zu Doppelsträngen auffüllen, um schließlich vier Doppelstränge zu
40
erhalten. Nach ca. 20 Zyklen hat man eine millionenfache Anreicherung des zwischen den Primern liegenden
DNA-Abschnitts erreicht! Besonders leistungsfähig
wird die Methode durch den Einsatz von temperaturstabilen Enzymen aus Hitze liebenden Bakterien. Für die
beschriebene zellfreie Vermehrung eines DNA-Moleküls
wird heute eine Vielzahl von Automaten angeboten.
Dank der zahlreichen analytischen Arbeiten
haben wir heute bei vielen Krankheiten eine genaue
Vorstellung davon, durch welche Veränderungen auf
DNA-Ebene sie verursacht werden. In der Regel hat
man es mit veränderten, fehlenden oder zusätzlichen
Nukleotiden zu tun. Man kann sich nun DNA-Sonden
konstruieren, die exakt der betreffenden Sequenz in
dem gesunden oder defekten Gen gleichen. Aus der
Intensität, mit der diese Sonden an die zu untersuchende DNA binden, lässt sich eine genaue Aussage
über das Vorliegen von defekten Sequenzen machen.
Die technische Umsetzung dieses Verfahrens durch so
genannte DNA-Chips oder Biochips wird in Kapitel 7
der Broschüre unter dem Punkt „Diagnostik“ noch einmal genauer erläutert.
2.12 Ein Fingerabdruck von den
Genen
Jedes Genom ist einzigartig
Neben dem gezielten Aufspüren von Veränderungen in
bestimmten Sequenzen ergeben sich aus unserem
Wissen um den Aufbau der genetischen Information
noch andere Anwendungen. Diese sind vielleicht noch
erstaunlicher.
Wie oben schon kurz erwähnt, ist das Genom der
höher entwickelten Organismen nicht unbedingt voll
gepackt mit genetischer Information. Beim Menschen
wird sogar ein nur verblüffend geringer Teil des
Genoms für die Speicherung genetischer Information
genutzt. Die niedrigsten Schätzungen liegen bei nur
3%. Über die Funktion der restlichen DNA ist man sich
noch nicht so ganz im Klaren. Allerdings haben die
analytischen Untersuchungen dieses Bereichs bereits
zur Entdeckung bestimmter Sequenzen geführt, die in
Anordnung und Häufigkeit für jedes Individuum charakteristisch sind. Mit den entsprechenden Gensonden
lässt sich daher von der menschlichen DNA ein Bild
erhalten, das für jede Einzelperson eindeutig und einmalig ist. Da diese Sequenzen nach den üblichen
Regeln vererbt werden, lassen sich so auch verwandt-
Biotechnologie und moderne Medizin
schaftliche Beziehungen klären.
Da die Aussagen dieses DNA-Tests ebenso
unverwechselbar sind wie ein Fingerabdruck, spricht
man international vom DNA-Fingerprinting. Schon aus
dem Namen wird klar, dass diese Methode in der Kriminalistik eingesetzt werden kann. Die DNA eines Tatverdächtigen kann mit DNA verglichen werden, die aus
Zellen stammt, die am Tatort gefunden wurden. Dank
der PCR-Methode genügen hier schon einige wenige
Zellen als Ausgangsmaterial. Da die Methode hohe
Anforderungen an die Durchführung stellt, war sie seit
ihrer Entwicklung Mitte der 80er Jahre in der Kriminalistik immer wieder umstritten. Heute hat sie sich als
Bestandteil forensischer Untersuchungen fest etabliert.
Das DNA-Fingerprinting ist längst auch unverzichtbar, wenn es darum geht, verwandtschaftliche
Beziehungen zu klären. Die Genauigkeit des DNA-Fingerprinting ist dabei weitaus höher als die Genauigkeit
der klassischen biochemischen Tests. Bei Vaterschaftsprozessen findet die Methode daher ebenso
Anwendung wie bei Immigrationsverfahren, wenn die
Klärung verwandtschaftlicher Beziehungen hierfür
notwendig ist.
Aber nicht nur beim Menschen kann die Methode eingesetzt werden, sondern generell bei allen Organismen. Besonders in der Tierzucht ergeben sich klare
Abstammungsnachweise, was die Sicherheit bei Kauf
und Kreuzung deutlich erhöht. Auch in
Pflanzen können
genetische Marker
problemlos nachgewiesen werden
und
Aufschluss
über die erfolgreiche Ein- oder Auskreuzung
von
Eigenschaften
geben. Natürlich
sind Mikroorganismen gleichfalls auf diese Art charakterisierbar. Es
ist sehr genau feststellbar, ob sich bestimmte Mikroorganismen in einer zu untersuchenden Probe befinden.
Das kann dort interessant sein, wo schnelle Aussagen
über die Art eines Krankheitserregers gefordert sind.
Man kann aber auch Informationen über eine Kontamination von Lebensmitteln gewinnen oder einfach nur
sicherstellen, dass ein bestimmter Mikroorganismus
auch wirklich der ist, für den man ihn hält.
Nach Anfärben mit
Fluoreszenzfarbstoffen können
DNA-Fragmente im
UV-Licht sichtbar
gemacht und aus
einer Gelmatrix isoliert werden.
Überführt: Die Einzigartigkeit der
Genome führt
bei Anwendung
geeigneter Analyseverfahren zur
Bildung von DNAFragmenten charakteristischer Länge.
Hier wird eine
Mischung von DNAs,
die am Tatort eines
Verbrechens isoliert
wurde (2), mit der
DNA von Opfer (3)
und potenziellem
Täter (1) verglichen.
Die Banden der
Mischung können
bei Anwendung verschiedener Verfahren (A-D) Opfer und
Täter eindeutig
zugewiesen werden.
41
Biotechnologie und moderne Landwirtschaft
3. Biotechnologie und moderne
Landwirtschaft
3.1 Ein Bakterium als
Lehrmeister
Moderne Züchtungsverfahren bei Pflanzen
Mini-Gewächshaus:
Einzelne Zellen können sich auf Nährmedien zu Gewebehaufen (Kalli) und
schließlich ganzen
Pflanzen regenerieren.
Baumwolle gehörte
zu den ersten Nutzpflanzen, die gentechnisch verändert
wurden und heute,
vor allem in den
USA, großflächig
angebaut werden.
Die Übertragung gentechnischer Methoden in den
Bereich der Pflanzen erwies sich zunächst als ausgesprochen schwierig. Pflanzenzellen verfügen über eine
starke Zellwand, die nicht
so ohne weiteres durchbrochen werden kann. Die
Züchtung von Pflanzenzellen in Zellkultur ist nicht
einfach. Die Herstellung
von Pflanzenzellen ohne
Zellwand, so genannter
Protoplasten, ebenfalls
nicht. Und die Regeneration ganzer Pflanzen aus
Einzelzellen ist auch nicht
trivial. Viele Schwierigkeiten also und zunächst nur
eine Lösung: Agrobakterium tumefaciens.
Dieses Bakterium kann man mit Fug und Recht
als einen Gentechniker der Natur bezeichnen. Es hat
nämlich einen ausgeklügelten Mechanismus entwickelt, um seine Plasmid-DNA auf bestimmte
Pflanzen zu übertragen.
Diese DNA wird von den
Pflanzenzellen in ihr
Genom eingebaut und
führt dazu, dass die
Pflanzenzellen tumorartig wachsen und eine
besondere Aminosäure
bilden, von der das Bakterium A. tumefaciens
wiederum sehr gut
leben kann. Der Stoffwechsel der transformierten Pflanzenzellen
42
wird also umdirigiert, ähnlich wie bei einer viralen
Infektion, und dient dann den Bedürfnissen des Bakteriums.
Nachdem dieser Mechanismus aufgeklärt worden war, fand man in ihm auch den Schlüssel zur Pflanzengentechnik. Man kann große Bereiche der bakteriellen Plasmid-DNA durch fremde DNA ersetzen, ohne
dass die Effizienz des Plasmid-Transfers auf die Pflanze leidet. Nun hat das Bakterium nichts mehr von dem
DNA-Transfer, dafür aber der Mensch. Denn nun stellen die Pflanzen zwar die für das Bakterium wichtige
Aminosäure nicht mehr her, können dafür aber andere
Dinge produzieren.
An der Aufklärung dieser Mechanismen waren
deutsche Wissenschaftler und Institutionen, nicht
zuletzt das Max-Planck-Institut in Köln, führend beteiligt. Zu Beginn der 80er Jahre nahm die Gentechnik der
Pflanzen dann ihren eigentlichen Aufschwung. Neue
Methoden der Pflanzenzellkultur, der Regeneration
und des Gentransfers erweiterten die Möglichkeiten
der Forscher zunehmend. Immer mehr Arten wurden
der Anwendung gentechnischer Methoden zugänglich.
Mehr und mehr Arbeitsgruppen und auch Firmen
wandten sich der Bearbeitung von Pflanzen zu. Heute
können alle wichtigen Kulturpflanzen gentechnisch
bearbeitet werden.
3.2 Noch
manche Nuss
zu knacken
Moderne Pflanzenzucht und neue
Lebensmittel
Die Eigenschaften, die
man in Pflanzen einbringen möchte, lassen sich
ganz grob in zwei Kategorien einteilen. Zum
einen sind es Eigenschaften, die den Umgang mit den Pflanzen
Biotechnologie und moderne Landwirtschaft
erleichtern sollen und daher in erster Linie für den
Züchter und Bauern von Interesse sind. Zum anderen
sind es die Produkteigenschaften selbst, die dann auch
vom Verbraucher unmittelbar wahrgenommen werden.
Ein Beispiel soll das verdeutlichen.
Mit der FlavrSavr-Tomate ist 1994 erstmals eine
gentechnisch veränderte Pflanze für den menschlichen
Verzehr zugelassen worden. Es handelte sich dabei um
eine Tomate, bei der auf elegante Art und Weise eine
unerwünschte Enzymaktivität lahm gelegt worden
war. Details dazu finden sich im Produktteil der Broschüre, wenngleich die FlavrSavr-Tomate heute nicht
mehr am Markt ist. Die FlavrSavr war länger haltbar
und konnte daher in ausgereifter Form gepflückt und zu
den Märkten transportiert werden. In diesem Fall kam
der Kunde direkt mit dem gentechnisch veränderten
Organismus in Berührung.
In einem anderen Fall wurden Tomaten angebaut, die ähnlich wie die FlavrSavr-Variante länger
haltbar gemacht worden waren. Diese Tomaten dienen
aber ausschließlich der Herstellung von Tomatenpüree. Als prozessiertes Lebensmittel enthält das
Püree keine lebenden Zellen mehr. Diese werden
während des Herstellungsprozesses aufgebrochen.
Auch die DNA mitsamt den fremden Abschnitten wird
zu kleinen Fragmenten abgebaut. Die verbesserte
Haltbarkeit der Tomaten ist deshalb primär für die Bauern von Vorteil, die ein größeres Zeitfenster bei der
Ernte haben. Die Kunden kommen mit dem intakten
gentechnisch veränderten Organismus selbst, der
Tomate, nicht mehr in Berührung. Die Tomate war nur
Ausgangsmaterial für die Herstellung des Pürees.
Ähnlich liegen die Dinge auch bei zahlreichen
anderen Anwendungen, wo gentechnisch veränderte
Pflanzen zwar Ausgangspunkt einer industriellen Verarbeitung sind, die Endprodukte aber von dieser gentechnischen Veränderung nicht mehr berührt werden.
Die wichtigsten kommerziellen Entwicklungen haben
sich auf diesen Bereich konzentriert. Es geht dabei um
Pflanzen, die gegen Herbizide, also Unkrautvernichtungsmittel, gegen Insekten oder Krankheiten
geschützt sind. Vielfach dienen diese Pflanzen zwar
als Ausgangsprodukte für Lebensmittel, doch enthalten diese dann weder ganze Zellen noch intakte DNA.
Manchmal, wie im Falle gentechnisch veränderter
Baumwolle, haben die Pflanzen auch einen ganz anderen Verwendungszweck. Solche Varietäten sollen vorwiegend für die Bauern Vorteile bringen, weil sie verbesserte Produkte im Pflanzenschutz einsetzen und
Das Wachstum der
Pflanzen wird im
Labor kritisch überprüft.
höhere Erträge erzielen können.
Diese Vorteile sind von den Firmen, die gentechnisch
veränderte Pflanzen herstellen, immer wieder als
Argument angeführt worden. Der höhere Preis des
gentechnisch veränderten Saatguts sollte für die Bauern durch höhere Erträge, geringeren Aufwand für
Pflanzenschutzmittel und durch Einsparung bei
Arbeitszeit und Arbeitsmitteln aufgewogen werden.
Wenn auch in ihrer Höhe umstritten, hat eine vom
amerikanischen Landwirtschaftsministerium in Auftrag gegebene Studie diese Vorteile prinzipiell belegen können.
Die zusammen mit gentechnisch veränderten
Pflanzen einsetzbaren Herbizide gelten als umweltverträglicher als viele andere, da sie rascher abgebaut
werden und die Mengen geringer sind, die man für
eine Bekämpfung des Unkrauts benötigt. Als so
genannte Nachauflaufherbizide können sie nach
Bedarf verwendet und müssen nicht – wie bei Vorauflaufherbiziden erforderlich – schon prophylaktisch
ausgebracht werden. Sie sind aber völlig unselektiv,
d.h., sie greifen alle Pflanzen an, ohne zwischen
Unkraut und Nutzpflanze zu unterscheiden. Mit gentechnischen Methoden hat man die Nutzpflanzen
daher gegen diese Herbizide resistent gemacht. Nur
die gentechnisch veränderten Nutzpflanzen überstehen einen Einsatz der so genannten Totalherbizide,
43
Biotechnologie und moderne Landwirtschaft
Einzelne Pflanzenzellen unter dem
Mikroskop.
Anbau und Verwendung gentechnisch veränderter
Nahrungspflanzen
wie Mais wird
intensiv diskutiert.
während alle anderen Pflanzen absterben. Wie bei
sämtlichen derartigen Entwicklungen bleibt das
inhärente Problem, dass unter dem Selektionsdruck
des Herbizids auch resistente Unkräuter entstehen
können. Ob dies durch Erwerb des Resistenzgens –
durch unerwünschte Kreuzung mit der Nutzpflanze –
geschieht oder durch andere Mechanismen, ist dabei
unerheblich.
Bei der Züchtung von Pflanzen, die gegen Insekten geschützt sind, versucht man Abwehrmechanismen auszunutzen, die von der Natur bereits entwickelt
wurden. Statt durch klassische Pflanzenschutzmittel
sollen die Pflanzen durch die interne Produktion von
Abwehrstoffen geschützt werden. Dieser Weg wurde
bei der Verwendung eines bakteriellen Proteins
beschritten, das eine insektizide Wirkung gegen
bestimmte Insektenlarven entwickelt. Die Wirkung
dieses Proteins aus Bacillus thuringiensis war schon
vor längerer Zeit erkannt worden. Man züchtete daher
die Bakterien selbst als Insektizide und versprühte sie
auf den Feldern. Mittels gentechnischer Methoden
konnte das Gen dann aus B. thuringiensis isoliert und
auf Nutzpflanzen übertragen werden. Diese produzieren damit ihren eigenen insektiziden Wirkstoff.
Trotz einiger Jahre Erfahrung mit einem
großflächigen Anbau dieser Pflanzen bleibt es wichtig,
ihre Anpassung an die Umwelt und ihre Interaktion mit
der Umwelt zu beobachten. In Laborexperimenten sind
Resultate erzielt worden, die für einen großflächigen
Anbau bestimmter Pflanzen bedenklich stimmen.
Allerdings haben die Untersuchungen der bislang
durchgeführten Feldversuche derartige Bedenken
44
nicht bestätigt. In der Europäischen Union ist mit der
so genannten Freisetzungsrichtline (90/220 EWG) ein
Rechtsrahmen geschaffen worden, der die Freisetzung
und das Inverkehrbringen gentechnisch veränderter
Organismen regelt. Allerdings haben Dänemark,
Frankreich, Griechenland und Großbritannien Mitte
1999 de facto Moratorien verfügt, so dass dort vorläufig keine gentechnisch veränderten Pflanzen für die
kommerzielle Nutzung angebaut werden dürfen.
Es gibt mittlerweile eine Vielzahl von biotechnischen Ansätzen um verbesserte Pflanzensorten zu
erzeugen. Pflanzen verfügen beispielsweise nicht über
ein Immunsystem wie der Mensch, doch wird eine
Pflanzenzelle, die von einem Virus infiziert wurde, kein
zweites Mal von einem Virus befallen. Das weiß man
schon seit einiger Zeit. Es konnte nun gezeigt werden,
dass eine solche „Immunität“ durch das Vorhandensein bestimmter viraler Proteine ausgelöst wird. Normalerweise finden sich diese Proteine nur dann in der
Pflanzenzelle, wenn sie von einem Virus befallen
wurde. Man kann nun aber das Gen für solch ein virales Protein in das pflanzliche Genom integrieren und
der Zelle damit eine virale Infektion vorgaukeln, die
gar nicht stattgefunden hat. Die geringe Menge an
viralem Protein stört die Pflanze nicht. Als Ergebnis
findet ein zweites Virus, das die Pflanzenzelle gerne
befallen möchte, die Tür sozusagen verschlossen. Die
Pflanzenzelle ist gegen das Virus resistent. Mittels
dieses Verfahrens möchte man beispielsweise die Rhizomania bekämpfen, die gefürchtete Wurzelbärtigkeit
bei Zuckerrüben.
Andere Ansätze zielen auf eine Veränderung von
Kulturpflanzen dergestalt, dass die Konzentration der
Inhaltsstoffe, die für den Menschen wichtig sind,
erhöht ist. Das können z.B. wichtige Aminosäuren sein
oder Vitamine. Auf diesem Weg könnte man Mangel-
Biotechnologie und moderne Landwirtschaft
krankheiten, die einer einseitigen Ernährung angelastet werden können, vorbeugen. Sehr wichtig ist das
mit Blick auf Reis, der mit Vitamin A angereichert werden soll. Dort wo der Reis Nahrungsgrundlage ist, werden viele Tausend Fälle von Blindheit auf einen Mangel an Vitamin A zurückgeführt. Die Entwicklung solcher Pflanzen könnte zu Lebensmitteln führen, für die
der Begriff Nutraceuticals geprägt wurde. Damit soll
ausgedrückt werden, dass sie neben der eigentlichen
Nahrungsmitteleigenschaft auch eine medizinisch
relevante Eigenschaft besitzen.
Die neuen Lebensmittel, die international als
Novel Food bezeichnet werden, erfordern unter Sicherheitsaspekten eine genaue Prüfung. Im Falle der FlavrSavr-Tomate, in der lediglich ein Gen ausgeschaltet
wurde und damit ein Protein fehlt, sind schädliche
Wirkungen für den Menschen sicher nicht zu befürchten. Es wird aber aus gutem Grund immer wieder darauf hingewiesen, dass besonders das allergene Potenzial der neuen Lebensmittel kritisch geprüft werden
muss. Beispielsweise wurde, um die Qualität der Sojabohne als Lebensmittel zu verbessern, das Gen für ein
besonders methioninreiches Protein aus der Paranuss
in Sojabohnen einkloniert (Methionin gehört zu den so
genannten essenziellen Aminosäuren und kann vom
menschlichen Körper nicht selbst synthetisiert, sondern muss mit der Nahrung aufgenommen werden).
Paranüsse sind als allergen bekannt und können zu
schweren allergischen Reaktionen führen. Es stellte
sich im Fall des in Sojabohnen einklonierten Gens heraus, dass durch das Protein – das 2-S-Albumin der
Paranuss – tatsächlich auch ein allergenes Potenzial
auf die Sojabohne übertragen worden war. Die entsprechenden Tests wurden routinemäßig durchgeführt. Eine Markteinführung dieser transgenen Sojabohne kam daraufhin natürlich nicht mehr in Frage.
Während Gentechnik-Gegner dieses Beispiel gerne
benutzen, um die Gefahren der Gentechnik zu
beschwören, belegt es letztlich nur, dass auftretende
Probleme rechtzeitig erkannt werden und beherrschbar sind.
Neben den Pflanzen, die Grundlage der menschlichen Ernährung sind, werden viele Arten auch hinsichtlich einer technischen Verwertung angebaut. Die
Baumwolle als Beispiel wurde bereits genannt. Auch
in diesem Sektor werden viele Experimente durchgeführt, die eine Verbesserung der Pflanzen mit Blick auf
ihre Verwertbarkeit zum Ziel haben. So kann, um gleich
bei der Baumwolle zu bleiben, die Blaufärbung der
Baumwollfaser direkt an der Pflanze erreicht werden –
durch Einklonieren entsprechender Gene. Man könnte
dann idealerweise den chemischen Prozess des Einfärbens vermeiden. Das könnte auch unter Umweltaspekten Vorteile haben. Oder man kann, mit Blick auf die
Qualität von Pflanzenölen, die Zusammensetzung des
Fettsäuremusters gezielt verändern. Das kann sowohl
für technische Anwendungen als auch für die Lebensmittelindustrie interessant sein.
3.3 Made by...
Die Kennzeichnung neuer Lebensmittel
Die Diskussion um moderne Verfahren in der Landwirtschaft wurde nicht zuletzt von der Frage einer Kennzeichnung neuer Produkte, besonders neuer Lebens-
mittel, beherrscht. Hier wurde lange Zeit unterschätzt,
dass neben einer selbstverständlich zu fordernden
Unbedenklichkeit dieser Produkte auch die Wahlmöglichkeit für den Verbraucher von entscheidender
Bedeutung ist. Der Kunde soll sich für das aus seiner
Sicht bessere Produkt entscheiden können. Um eine
solche Entscheidung zu ermöglichen, müssen die
unterschiedlichen Produkte für ihn natürlich klar
erkennbar sein.
Nicht zuletzt wegen der logistischen Schwierigkeiten, die sich aus der Forderung nach einer klaren
Kennzeichnung ergeben, wurde diese seitens der Indu-
45
Gentechnik oder
nicht?
Der Verbraucher
möchte Klarheit.
Biotechnologie und moderne Landwirtschaft
strie lange Zeit gescheut. Auch hatten die Erfahrungen
in den USA nicht unbedingt erwarten lassen, dass
diese Forderung in Europa derart nachdrücklich erhoben würde. Die Art der Kennzeichnung, die Trennung
gentechnisch veränderter von unveränderten Produkten, die Quantität erlaubter Restmengen und viele
Punkte mehr wurden Ende der 90er Jahre zum Politikum. Die Positionen der USA und weiterer Nationen,
die gentechnisch veränderte Pflanzen anbauten, standen denen vieler Abnehmerländer lange Zeit recht
unversöhnlich gegenüber. Umso erfreulicher, dass
Anfang 2000 dann doch eine Einigung erzielt werden
konnte. Das in Montreal beschlossene Rahmenabkommen sieht vor, dass zukünftig alle Lieferungen zu kennzeichnen sind, die möglicherweise gentechnisch veränderte Rohstoffe enthalten.
In der öffentlichen Darstellung entsteht oft der
Eindruck, von gentechnisch veränderten Lebensmitteln
gehe per se ein erhöhtes Risiko aus. Dabei erstreckt
sich diese Befürchtung sogar auf Lebensmittel, die
selbst gar nicht verändert sind, sondern nur Stoffe enthalten oder mit ihnen in Berührung gekommen sind, die
gentechnisch hergestellt wurden. So wird bei der Herstellung von Hartkäse Labferment eingesetzt. Dieses
Enzym, international Chymosin genannt, wird in vielen
anderen Ländern längst gentechnisch produziert und
eingesetzt. Es unterscheidet sich von dem aus Kälbermägen isolierten Enzym nur dadurch, dass es gentechnisch in viel höherer Reinheit gewonnen werden kann.
Man schätzt, dass in den USA bereits 60% des Hartkäses mit diesem Chymosin hergestellt werden. Es fragt
sich nun, ob man den Hartkäse, der das gentechnisch
hergestellte Enzym enthält, nun selbst als gentechnisch verändert bezeichnen sollte. Ein erhöhtes Risiko
für den Verbraucher zumindest ist nicht erkennbar.
Bei der Herstellung von Zucker aus Stärke wird
ein Enzym verwendet, das heute weltweit nur noch
unter Verwendung rekombinanter Mikroorganismen
hergestellt wird. Dieses Herstellungsverfahren bietet
gegenüber dem klassischen sowohl ökonomische als
auch ökologische Vorteile. Das Enzym mit dem Namen
a-Amylase ist mit dem klassisch gewonnenen völlig
identisch und im Endprodukt Zucker nicht enthalten.
Auch hier scheint mehr als fraglich, ob man den Zucker
oder womöglich auch die mit ihm gesüßten Waren nun
als gentechnisch verändert bezeichnen sollte. Sinnvoll
ist es aber in jedem Fall, breit darüber zu informieren,
wo und bei welchen Verfahrensschritten Gentechnik
eingesetzt wird. Vorbehalte gegenüber der Gentechnik
lassen sich am besten durch Information beseitigen.
Diese für den Lebensmittelbereich entwickelten
Überlegungen lassen sich auch auf andere Gebiete
ausdehnen. Beispielsweise sind in unseren modernen
Waschmitteln Enzyme enthalten, die eine wichtige
Rolle bei der Entfernung von eiweißhaltigen Flecken
oder auch Fettflecken spielen. Diese Enzyme werden
teilweise bereits mit Hilfe gentechnisch veränderter
Stämme hergestellt – mit erheblichen Vorteilen für die
Umwelt. Darauf wird in Kapitel 7 noch eingegangen.
Was spricht eigentlich dagegen, den Kunden über die
Vorteile zu informieren, die sich aus der gentechnischen Herstellung der verwendeten Enzyme ergeben
haben? Information und Kennzeichnung sind ja nicht
ein und dasselbe.
Madein Germany
Eine Kennzeichnung
kann sich zum
Qualitätsmerkmal
entwickeln.
46
Biotechnologie und moderne Landwirtschaft
3.4 Vom Farmer zum Pharmer
Biotechnologie und moderne Tierzucht
Bei der Züchtung gentechnisch veränderter Tiere ist
die Methode des DNA-Transfers im wahrsten Sinne
des Wortes besonders anschaulich. Die fremden Gene
werden zunächst in geeignete Vektoren kloniert und
anschließend in eine ultrafein ausgezogene Glaskanüle gefüllt. Eine Zielzelle wird unter dem Mikroskop durch Ansaugen an eine zweite, größere, Glaskanüle fixiert. Bei der Zielzelle handelt es sich um eine
in vitro befruchtete Eizelle, in der männlicher und
weiblicher Zellkern noch getrennt als so genannte Vorkerne erkennbar sind. Dann wird mit der feinen Glaskanüle in die Zielzelle hinein gestochen und zwar so,
dass die DNA in einen der beiden Vorkerne eingespritzt werden kann. Danach laufen die normalen zellulären Vorgänge ab. Die beiden Vorkerne verschmelzen miteinander und die fremde DNA wird mitsamt den
Vektorsequenzen in das Genom der Zelle integriert.
Diese Vorgänge können nur bei Mäusen einigermaßen
gesteuert werden. Im großen und ganzen laufen sie
zufällig ab. Daher wird die fremde DNA oft an verschiedenen Orten und in mehreren Kopien in das
jeweilige Wirtsgenom integriert. Der sich entwickelnde Embryo wird sodann in ein Ammentier eingepflanzt
und von diesem normal ausgetragen. Die fremde DNA
befindet sich, ausgehend von der befruchteten Eizelle,
dann auch in jeder Körperzelle des transgenen Tieres.
Damit ist die neue Eigenschaft Teil seiner Keimzellen
und auf die Nachkommen vererbbar. Auf technische
Einzelheiten, die recht kompliziert sein können, soll
hier nicht weiter eingegangen werden.
Die Züchtung gentechnisch veränderter, transgener Tiere wurde experimentell zunächst an Mäusen untersucht. Sämtliche Versuche unterliegen
dabei den Bestimmungen des Tierschutzgesetzes.
Die entwickelten Methoden sind allerdings universell anwendbar – theoretisch auch beim Menschen.
Das führt immer wieder zu Diskussionen. Derartige
„Keimbahnexperimente“ am Menschen sind bei uns
aber durch das Embryonenschutzgesetz untersagt.
Neben Experimenten an der Maus als dem klassischen Versuchstier nutzt man die Methoden der
Gentechnik nun auch intensiv, um wichtige Zuchtziele
bei Schaf, Rind oder Schwein zu erreichen. Beim
Schaf geht es zum Beispiel darum, die Qualität der
Wolle durch eine verbesserte Verfügbarkeit der Ami-
nosäure Cystein zu steigern. Beim Rind soll u.a. die
Qualität der Milch durch ein zusätzliches Protein, das
Lactoferrin, verbessert werden. Bei Schweinen wird
untersucht, ob sich Tiere züchten lassen, die als
Organspender für den Menschen in Frage kommen.
Hierzu wurden die Oberflächen der tierischen Zellen so
verändert, dass sie vom menschlichen Immunsystem
nicht mehr als fremd erkannt werden können. Die
genannten Beispiele sollen nur in aller Kürze einen Eindruck davon vermitteln, welches Spektrum an Anwendungen in diesem Bereich schon erforscht wird. Auf die
Bedeutung von transgenen Mäusen und anderen gentechnisch veränderten Tieren in der Grundlagenforschung wurde in Kapitel 2.6 bereits hingewiesen.
Auf eine Anwendung in der modernen Tierzucht
soll zum Abschluss dieses Kapitels noch detaillierter
eingegangen werden. Wie im Falle des Lactoferrins
schon angedeutet wurde, kann man durch die Auswahl
Gentechnisch
veränderte Schafe
dienen heute bereits
zur Herstellung von
Medikamenten.
Die erste gentechnische Veränderung
an Tieren gelang
1982 bei Mäusen.
Biotechnologie und moderne Landwirtschaft
rund 4.000 Tieren begonnen wird, aus deren Milch man
das Medikament a-1-Antitrypsin gewinnen möchte.
3.5 Vom Klonen und Klonieren
Potent sein allein reicht nicht
Unter dem Mikroskop wird DNA in
eine befruchtete
Eizelle injiziert.
geeigneter Promotoren erreichen, dass fremde DNA
nur in den Milchdrüsen weiblicher Tiere exprimiert
wird. Das interessierende Protein wird somit in die
Milch abgegeben und kann aus dieser gewonnen werden. Da es sich bei diesen Produkten häufig um Therapeutika, also Pharmaprodukte, handelt, hat sich hierfür der Begriff Pharming etabliert – eine Verschmelzung der Worte Pharma und Farming.
Das berühmteste Beispiel hierfür ist nach wie
vor Tracey, ein Schaf, dessen Milch ein therapeutisch
wichtiges humanes Protein enthält. Mit dieser Eigenschaft wurde Tracey von Wissenschaftlern einer
schottischen Firma versehen. Diese haben die humane
Erbinformation für a-1-Antitrypsin in das Genom von
Tracey integriert. Das Protein ist für die Lungenfunktion wichtig und wird heute – noch aus menschlichem
Blut gewonnen – bereits therapeutisch eingesetzt.
Tracey und ihre Nachkommen produzieren
erhebliche Mengen des Proteins in ihrer Milch. Eine
Herde von einigen tausend Tieren sollte ausreichen,
um den Weltbedarf an diesem noch knappen Protein zu
decken. Die Produktion von therapeutischen Proteinen
auf diesem Weg könnte allgemein dort interessant
sein, wo das Protein spezifische Modifikationen
erhält, die nur von Säugerzellen durchgeführt werden
können. Einfache Aufreinigungsverfahren vorausgesetzt, ist dieses Herstellungsverfahren ökologisch und
ökonomisch hochinteressant. Besonders in Kombination mit dem nachfolgend beschriebenen Klonen ist das
Verfahren interessant. Von der oben erwähnten schottischen Firma wurde Ende 1999 bekannt gegeben, dass
in Neuseeland mit der Aufzucht einer Schafherde aus
48
Die Tierzucht hat – ganz abgesehen von gentechnischen Methoden – in der jüngeren Vergangenheit
erhebliche Fortschritte gemacht. Dazu gehören vor
allen Dingen die Möglichkeiten der Fertilisation in
vitro und des Embryonentransfers. Dadurch konnte
erreicht werden, dass die Eigenschaften von Tieren mit
herausragenden Leistungsmerkmalen schnelle Verbreitung finden. Das Kreuzen eines australischen
Stiers mit einer schottischen Kuh und das Austragen
des Embryos durch ein amerikanisches Ammentier ist
heute möglich, ohne dass die Tiere ihre angestammten
Weiden verlassen müssen. Nur Erbgut und Embryonen
gehen auf die Reise. Dies hat nun allerdings nichts mit
Gentechnik im engeren Sinne zu tun. Zu diesem methodischen Repertoire gehört auch die Herstellung identischer Mehrlinge, auf die nun eingegangen werden
soll.
Identische Mehrlinge werden auch als Klone
bezeichnet. Daraus resultiert sehr schnell eine begriffliche Verwirrung mit Methoden der Gentechnik. Der im
Jargon der Gentechniker übliche Begriff des Klonierens bezieht sich in aller Regel auf Mikroorganismen.
Er umreißt ganz grob die Isolierung eines interessierenden DNA-Fragments durch Transfer dieses Fragments in ein Bakterium, eine Hefe oder einen Pilz.
Durch exponentielles Wachstum entsteht, ausgehend
von einem einzigen transformierten Mikroorganismus,
eine für das Auge sichtbare Anhäufung identischer
Mikroorganismen, ein Klon. Ein solcher Klon enthält
dann viele Millionen oder Milliarden identische, gentechnisch veränderte Mikroorganismen.
Der Begriff des Klons gilt nun aber für genetisch
identische Lebewesen ganz allgemein. Er kann für
höhere Organismen ebenfalls verwendet werden. In
diesen Fällen entstammen die Klone allerdings nicht
der Anwendung gentechnischer Methoden, sondern
sie entstehen auf andere Art.
Bekanntermaßen stellt die befruchtete Eizelle
den Ausgangspunkt für die Entwicklung eines Tieres
dar. Die Eizelle beginnt sich zu teilen und die Zellen des
größer werdenden Embryos beginnen sich nach und
nach zu differenzieren, das heißt spezialisierte Funk-
Biotechnologie und moderne Landwirtschaft
tionen auszuüben. Diese in Raum und Zeit exakt geregelte Differenzierung ist eines der faszinierendsten
Rätsel der Entwicklungsbiologie. Die deutsche Biologin Nüsslein-Volhard hat für ihre Beiträge zur Entschlüsselung dieses Rätsels – durch Experimente an
der Taufliege Drosophila melanogaster – 1995 den
Nobelpreis erhalten.
Man weiß nun schon länger, dass die aus der
befruchteten Eizelle hervorgehenden Zellen nach den
allerersten Teilungen alle noch totipotent sind. Das
heißt, sie haben noch die Fähigkeit, einen vollständigen und intakten Organismus zu bilden. In Kapitel 2.9
wurde darauf bereits eingegangen. Man kann die Zellen in diesem Stadium voneinander trennen und durch
eine Reihe von technischen Kunstgriffen dafür sorgen,
dass sie quasi wieder von vorn, vom Stadium der
befruchteten Eizelle aus, mit den Teilungen beginnen.
Die Embryonen, die sich nun unabhängig voneinander
entwickeln, besitzen das vollkommen identische Erbmaterial, so wie bei eineiigen Zwillingen. Sie werden
verschiedenen Muttertieren eingesetzt, und von diesen werden dann Tiere geboren, die genetisch identisch sind. Das Verfahren ist allerdings mit einer recht
hohen Ausfallquote belastet. Trotzdem macht man von
dieser Möglichkeit in der Tierzucht schon länger
Gebrauch. Wissenschaftler haben außerdem einen
Weg gefunden, um totipotente Zellen in Zellkultur zur
Vermehrung anzuregen. Die Teilungen erfolgen dabei
so, dass lediglich immer neue totipotente Zellen entstehen, ohne dass es zur Differenzierung dieser Zellen
kommt. Tatsächlich wurden nach Implantation solcher
in vitro erhaltenen Zellen zwei identische Schafe
Beim Klonen (links)
wird die genetische
Information
zunächst nicht verändert. Bei der Herstellung gentechnisch veränderter
Tiere (rechts) wird
dagegen fremde
DNA in das tierische
Genom eingeführt.
49
Biotechnologie und moderne Landwirtschaft
Eine wollige
Berühmtheit:
Das Schaf Dolly
wurde als erstes
Säugetier mittels
Kerntransfer
geklont. Der Versuch
gelang im Jahr
1997.
geboren. Theoretisch unterliegt damit die Zahl der
identischen Individuen, die man bekommen kann, keiner Einschränkung mehr. Man kann ja zunächst beliebig viele totipotente Zellen durch Teilung in vitro
züchten und dann unterschiedlichen Muttertieren einpflanzen. Aus dem Zwilling wird auf dem Papier so
rasch ein Hundertling oder Tausendling. Aber eben nur
auf dem Papier. In der Praxis ist das Verfahren noch
längst nicht ausgereift.
Das Klonen durch Teilung von Embryonen ist in
der Tierzucht bereits gang und gäbe geworden. Bei
natürlich gezeugten Embryonen bzw. deren Klonen
kann man aber prinzipiell nie genau vorhersagen, welche Eigenschaften sie besitzen werden – abgesehen
davon, dass die Klone als eineiige Mehrlinge gleiche
Eigenschaften haben werden. Zwar kennt man die
Eigenschaften der Elterntiere, aber das Ergebnis der
Kreuzungen bleibt immer ein Lotteriespiel. Daher
bestand schon lange der Wunsch, auch ausgewachsene Tiere mit bekannten und erwünschten Merkmalen
exakt „klonen“, sprich „kopieren“ zu können. Trotz
zahlloser Versuche in diese Richtung gelang das
Klonen erwachsener Säugetiere allerdings nicht und
galt daher als unmöglich.
Da veröffentlichte Ian Wilmut vom schottischen
Roslin Institute im Februar 1997 ein sensationelles
Experiment. Er hatte den Zellkern einer Euterzelle aus
einem ausgewachsenen Schaf in eine fremde befruchtete Schafeizelle übertragen, deren Kern zuvor ent-
50
fernt worden war. Diese „Eizelle“ implantierte er in
den Uterus eines „Ersatzmutterschafs“, das nach der
üblichen Tragzeit ein Lamm warf.
Das Lamm, das Wilmut angeblich nach der Countrysängerin Dolly Parton „Dolly“ getauft hatte, war
eine Sensation. Denn Dollys Erbgut war völlig identisch mit dem Erbgut des Schafs, von dem die Euterzelle stammte. Dolly war also ein Klon, eine exakte genetische Kopie des Tieres. Damit war zum ersten Mal ein
ausgewachsenes Säugetier geklont worden! Ganz so
einfach, wie hier geschildert, war das Experiment im
Übrigen nicht; denn immerhin wurden mehrere Hundert Eizellen benötigt, bis es funktionierte. Die Bedeutung dieses Ergebnisses erwies sich als immens.
Schon bald stellte sich heraus, dass sich auch andere
Säugetiere, z.B. Mäuse und Rinder, klonen lassen.
Damit wurde natürlich auch die Frage nach dem Klonen
von Menschen akut. Besonders an dieser Frage entzündeten sich heftige Debatten. In vielen Ländern der
EU, auch in Deutschland, entschied man sich bald, das
Klonen von Menschen gesetzlich zu verbieten. Offensichtliche medizinische oder ethisch gebotene Gründe
für das Klonen von Menschen konnten bis jetzt auch
nicht genannt werden.
Ob sich das Klonen von Tieren über das Transplantieren von Zellkernen als erfolgreiche Methode
etabliert, muss man abwarten. Zum einen scheint der
komplexe Prozess des „Reprogrammierens“, wenn das
Erbgut der ausdifferenzierten Zelle wieder „freigeschaltet“ wird, um einen ganzen Organismus bilden zu
können, sehr störanfällig zu sein. Darin dürfte auch
einer der Gründe für die große Zahl von Fehlversuchen
pro Klonerfolg liegen. Der andere Grund ist die noch
offene Frage, ob die Zahl der möglichen Zellteilungen
von geklonten Zellen geringer ist als die von normal
gezeugten Zellen. Für Dolly wurde von Forschern des
Roslin Institute berichtet, dass die Telomere ihrer
Chromosomen gegenüber gleich alten Tieren verkürzt
sind. Die Länge der Telomere, die an den Enden der
Chromosomen liegen, gilt als Maß für das Alter einer
Zelle. Man muss daher abwarten, ob sich bei Dolly und
den anderen Säugetierklonen frühzeitige Alterserscheinungen einstellen.
Das Klonen von transgenen Säugetieren, die
pharmazeutisch wertvolle Substanzen produzieren, ist
bereits eine der ersten wichtigen Anwendungen des
Klonens geworden. Das im vorangegangenen Kapitel
geschilderte „Pharming“ erhielt dadurch einen großen
zusätzlichen Schub. Gentechnische Methoden werden
Biotechnologie und moderne Landwirtschaft
zukünftig in verstärktem Maß mit den anderen Methoden der klassischen und modernen Tierzucht kombiniert werden. Beide Ansätze dienen letztlich dem gleichen Ziel, der Leistungsoptimierung bei Nutztieren.
Dennoch erscheint es sinnvoll, aus Gründen der begrifflichen Klarheit beide Methoden voneinander
abzugrenzen. Für eine Bewertung von Züchtungsvorhaben kommt es letztlich nicht darauf an, welche Methoden verwendet werden. Wichtiger sind die Zielsetzung
des Experiments und die Konsequenzen für das Tier.
Solange das Ergebnis der Züchtung dem Menschen
nutzt und dem Tier nicht schadet, ist wohl kaum etwas
gegen die entsprechenden Experimente einzuwenden.
In den Fällen, wo Leiden der Tiere zu erwarten sind –
wie in manchen Krankheitsmodellen – muss dieses
Leid sehr sorgfältig gegen den Nutzen für den Menschen abgewogen werden.
51
Biotechnologie und vieles mehr...
4. Biotechnologie und vieles mehr...
4.1 Biotechnologie und Umwelt
Statt Altlasten entlasten
Der Einsatz biotechnischer Verfahren zur Sanierung
kontaminierter Böden, Abwässer oder Luft hat eine
lange Tradition. Grundsätzlich greift man hier auf die
Stoffwechselleistungen von Mikroorganismen zurück,
die in einem oft komplizierten Zusammenspiel unterschiedlichster Stämme den schwer abbaubaren Stoffen zu Leibe rücken und diese zerlegen. Im Jargon werden diese Verfahren als „Nachsorgende Umwelttechnik“ oder „end of pipe“-Prozesse bezeichnet. Zum Ein-
man über die einzelnen Stämme in diesen Mischkulturen noch immer verhältnismäßig wenig. Es wird aber
intensiv daran gearbeitet, Stämme mit speziellen
Abbauleistungen für belastende Stoffe zu entwickeln.
Hierbei spielen auch gentechnische Ansätze eine
wichtige Rolle. Beim Abbau von Ölverschmutzungen
an Stränden und auf den Weltmeeren werden Mikroorganismen bereits erfolgreich eingesetzt, selbst bei der
schonenden Reinigung von Gebäudefassaden. Dabei
handelt es sich aber noch um Stämme, die mit klassischen Methoden optimiert worden sind.
Auch höhere Organismen, insbesondere Pflanzen, können für die Dekontamination von Böden eingesetzt werden. Man spricht hier von Phytofermediation
und macht sich beispielsweise zunutze, dass manche
Pflanzen in der Lage sind, dem Boden Schwermetalle
oder andere Stoffe zu entziehen. Es wird sogar schon
mit Bäumen experimentiert. Speziell entwickelte Pappeln können beispielsweise das Atrazin, ein weit verbreitetes Herbizid, sehr effizient aus dem Boden anreichern. Naturgemäß braucht die Entwicklung solcher
Verfahren viel Zeit und es muss sich zeigen, wo sie
erfolgreich eingesetzt werden können.
BMBF-Aktivitäten
Ein weites Betätigungsfeld:
Biotechnische Verfahren können helfen, die Belastung
der Umwelt zu
verringern.
satz kommen in der Regel Mischkulturen, die sich in
Abhängigkeit von der jeweiligen Belastung immer
wieder neu zusammensetzen. Das funktioniert recht
gut, und insbesondere die zur Reinigung eingesetzte
Technik wurde in den letzten Jahren stark verbessert.
Man denke nur an die Biohochreaktoren zur Abwasserreinigung, an Biofilter oder Biowäscher. Dagegen weiß
52
Im Bereich der Umweltforschung werden seitens des
Bundes zahlreiche Aktivitäten unterstützt. Das BMBF
hat u.a. das Förderprogramm „Forschung für die
Umwelt“ aufgelegt und unterstützt die Umweltforschung auch innerhalb des Programms Biotechnologie
2000. Das Förderprogramm „Forschung für die
Umwelt“ wurde im Jahr 1997 begonnen und hält allein
für die Projektförderung jährlich rund 400 Millionen
DM bereit, die teilweise für Projekte in der Biotechnologie verwendet werden.
Aber schon bei der Frage, ob belastende Stoffe
überhaupt vorhanden sind, werden routinemäßig biologische und biotechnische Verfahren eingesetzt.
Besonders dort, wo klassische Verfahren auf ganzen
Organismen beruhen und lange Zeit in Anspruch nehmen, können biotechnische Entwicklungen wie Bio-
Biotechnologie und vieles mehr...
sensoren oder DNA-Sonden wertvolle Verbesserungen bringen. In vielen Fällen kann erst
dadurch eine kontinuierliche Überwachung
von Abwässern – dank einer Verkürzung der
Reaktionszeit – zu unmittelbaren Gegenmaßnahmen führen. Auch bei der Untersuchung
von Ökosystemen und ihrer Reaktion auf verschiedene Umweltreize können insbesondere
DNA-Sonden eine wichtige Rolle spielen.
Diese sind nicht zuletzt auch für das Monitoring gentechnisch veränderter Pflanzen ausgesprochen wichtig.
Der Herstellung von Enzymen wird in
Kapitel 7 ein eigener Abschnitt gewidmet. An
dieser Stelle sei daher nur kurz erwähnt, dass
gerade an so genannten technischen Enzymen
– z.B. Proteasen und Lipasen für Waschmittel –
großes Interesse besteht. Der Einsatz rekombinanter Stämme führt hier zu teilweise außerordentlich hohen Steigerungen der Ausbeuten
und macht viele Herstellungsverfahren damit erst wirtschaftlich. Das bedeutet gleichzeitig eine Schonung
der Ressourcen und kommt damit direkt der Umwelt
zugute. Es ist keine Seltenheit, dass gentechnisch veränderte Stämme bei der Produktion derselben Enzymmenge mehr als 90% der Ressourcen einsparen, die ein
etabliertes Verfahren benötigt hatte.
Neue Produktionsverfahren arbeiten also unter
teils dramatischer Schonung von Ressourcen und sind
erheblich weniger belastend für die Umwelt. Die bei
der Herstellung von Enzymen erreichbaren Vorteile
lassen sich bei der Produktion anderer Stoffe ebenfalls
erzielen. So wird intensiv daran gearbeitet, Mikroorganismenstämme zu entwickeln, die das Biosynthesepotenzial verschiedener Ausgangsstämme in sich vereinen. Im Zusammenhang mit Antibiotika ist das schon
einmal angesprochen worden. Aber auch auf anderen
Gebieten, wie etwa der Vitaminherstellung, werden
neue Verfahren entwickelt.
Der Einsatz neuer, gentechnisch veränderter
Mikroorganismen kann also bei der Synthese von Verbindungen ganz allgemein interessante Alternativen
bieten. Diese Möglichkeiten werden oft mit dem
Begriff der „sanften Chemie“ umschrieben. Ein entsprechend veränderter Mikroorganismus baut den
gewünschten Stoff einfach aus den vorhandenen
Nährstoffen auf. Bequemer und ökologischer geht es
kaum. Bisher lassen sich allerdings nur einige ausgewählte chemische Syntheseverfahren sinnvoll durch
biotechnische ersetzen. Dennoch dürfte die Biotechnologie gerade beim Einsatz im produktionsintegrierten Umweltschutz eine immer größere Rolle spielen.
Unter produktionsintegriertem Umweltschutz versteht
man ganz allgemein die Umgestaltung und Neuplanung von Produktionsprozessen dergestalt, dass
umweltverträgliche und dadurch Kosten sparende
Verfahrensschritte eingebaut werden. Hierfür kommt
insbesondere der Einsatz von Enzymen als Biokatalysatoren in Frage. Dabei ist die günstige Verfügbarkeit
der Enzyme mittels rekombinanter Verfahren von
Bedeutung, aber auch die Tatsache, dass die Eigenschaften der Enzyme heute den technischen Prozessen
angepasst werden können. Einzelheiten dazu werden
in Kapitel 7 der Broschüre im Teil über Enzyme erläutert. Enzyme haben sich in den letzten Jahren zunehmend einen festen Platz in der Syntheseplanung der
Chemiker erobert. Als Beispiel sei hier die Herstellung
von Cephalosporin-Antibiotika genannt, bei der
zunächst der chemische Grundkörper durch Fermentation eines Pilzes gewonnen und dieser Grundkörper
dann chemisch abgewandelt wird. Durch gescheite
Überlegung hat man zwei der chemischen Verfahrensschritte durch biokatalytische Prozessschritte ersetzen
können. Dadurch werden Ressourcen und Kosten
gespart, andererseits die Umwelt geschont. Auch in
vielen anderen Bereichen wird an solchen Optimierungen gearbeitet. Man kann deshalb damit rechnen, dass
neue Verfahren vermehrt auf solche Syntheseschritte
53
Die Abwasserreinigung ist eine
klassische Domäne
der Biotechnologie.
Durch Einsatz
gentechnisch veränderter Mikroorganismen könnten die
Anwendungsmöglichkeiten noch
erweitert werden.
Biotechnologie und vieles mehr...
Die Gewinnung
zellulärer Bestandteile gehört zu den
Grundtechniken in
der Biotechnologie.
zurückgreifen werden und die Vision der „sanften Chemie“ damit ein Stück näher rückt.
4.2 Klassik und Moderne
Bewährte Domänen der Biotechnologie in
neuem Glanz
Schon seit langer Zeit dienen Mikroorganismen der
Herstellung von Aminosäuren. Die vielleicht bekannteste ist Glutaminsäure, deren Salz, das Glutamat, in
vielen Lebensmitteln als Geschmacksverstärker enthalten ist. Glutaminsäure wird durch Anzucht von Bakterien in riesigen Fermentern hergestellt. Ein weiteres
großes Anwendungsgebiet für Aminosäuren ist die
Garantiert vegetarisch: Gentechnisch
gewonnenes Chymosin wird in vielen
Ländern bei der Herstellung von Käse
eingesetzt.
54
Tierernährung. Hier wird durch Zusatz ausgewählter
Aminosäuren ein Mangel im Nahrungsangebot für die
Tiere ausgeglichen. Aber auch für die intravenöse
Ernährung kranker Menschen werden Aminosäuren
gebraucht. Alle 20 „natürlichen“ Aminosäuren sind
von wirtschaftlichem Interesse, allerdings mit stark
unterschiedlichem Gewicht.
Die mikrobiellen Produzentenstämme können
durch Optimierung der Stoffwechselwege und Regulationsprozesse hinsichtlich ihrer Ausbeuten an Aminosäuren optimiert werden. Erforderlich ist dazu eine
genaue Kenntnis der Syntheseschritte und auch der
Stoffflüsse. Wenn diese Kenntnisse vorliegen, dann
kann durch das so genannte Metabolic Engineering
dafür gesorgt werden, dass die vorhandenen Nährstoffe optimal in das gewünschte Produkt, die Aminosäure, umgesetzt werden. Diese Aussage ist nicht allein
auf Aminosäuren beschränkt, sondern gilt ganz allgemein für Produkte, die mit Hilfe von Mikroorganismen
hergestellt werden können. Das macht diese Verfahren ja auch unter Umweltaspekten so interessant.
Selbst den Farbstoff Indigo, mit dem Jeans gefärbt
werden, kann man heute mit Hilfe von Bakterien herstellen. Die neuen Verfahren müssen sich häufig mit
den bereits etablierten messen und eine bessere Wirtschaftlichkeit erst noch beweisen. In dem Maße, wie
ihnen das gelingt, werden sie sich auch durchsetzen.
Eine lange Tradition hat der Einsatz von Mikroorganismen bei der Produktion von Lebensmitteln. Die
Hefe als unverzichtbarer Helfer bei der Herstellung von
vielen Nahrungs- und Genussmitteln wie Brot und
Bier ist bestens bekannt. Auch bei der Herstellung von
Milchprodukten
werden
Mikroorganismen in Form so
genannter Starterkulturen
eingesetzt, die für die Qualität der Endprodukte von
großer Bedeutung sind.
Neue Entwicklungen können
hier dazu beitragen, die Leistungsfähigkeit der Mikroorganismen zu steigern, die
in den oben beschriebenen
Prozessen verwendet werden. Angestrebt wird u.a.
eine bessere Verwertung
von Ausgangsstoffen, eine
Beschleunigung der technischen Prozesse und eine
Biotechnologie und vieles mehr...
verbesserte Haltbarkeit der Endprodukte. Inwieweit
solche Kulturen und Herstellverfahren Akzeptanz bei
den Verbrauchern finden, muss man abwarten. Anfang
2000 scheint deren Haltung abwartend bis ablehnend.
Gentechnisch veränderte Kulturen werden in Deutschland daher derzeit nicht eingesetzt.
Im Mittelpunkt vieler Produktionsprozesse in der
Biotechnologie steht die Fermentation, die Anzucht
von Mikroorganismen oder Zellkulturen unter kontrollierten Bedingungen. Die Optimierung dieser Verfahren hat in den letzten Jahren große Fortschritte
gemacht. Neue Fermentertypen und Nährmedien sind
entwickelt worden, die eine Anzucht von seltenen
Mikroorganismen oder besonders empfindlichen Zellkulturen überhaupt erst erlauben. Auch bei der Aufarbeitung der gewachsenen Zellmasse, dem „Downstream Processing“, sind kontinuierliche Verbesserungen
erreicht worden.
Zu den biotechnischen Produkten, die für
einen technischen Einsatz hergestellt
werden, gehören unter anderem die im
Kapitel 7 ausführlicher vorgestellten
Enzyme. Die Palette umfasst außerdem
Lösungs-, Schmier- und Gefrierschutzmittel ebenso wie Riech- und Geschmacksstoffe, Säuren und noch viele
andere mehr. Selbst bei der so genannten tertiären Erdölförderung werden
mikrobielle Produkte eingesetzt. Bei der
Gewinnung all dieser Stoffe bieten biotechnische Methoden Ansatzpunkte, um
Ausbeuten und Reinheiten zu verbessern.
Selbst bei der Erzlaugung greift man auf
die Hilfe von Mikroorganismen zurück.
Das hat damit zu tun, dass manche
Mikroorganismen in der Lage sind,
Metalle auch aus geringwertigen Erzen herauszulösen
und anzureichern. Dadurch wird eine ökonomisch sinnvolle Aufarbeitung von Gesteinen möglich, die sonst
verworfen werden müssten. Mittels gentechnischer
Methoden wird versucht, die Mikroorganismen an die
von ihnen zu leistende Arbeit noch besser zu adaptieren.
Mikroorganismen können Metalle auch ganz einfach
nur binden und dadurch aus stark verdünnten wässrigen Lösungen anreichern. Dies kann der Gewinnung
dieser Metalle dienen, oder aber zur Reinigung des
Wassers. Giftige Schwermetalle können auf diese Art
aus belasteten Abwässern entfernt werden. Die Entgiftung von Böden durch den Einsatz von Pflanzen in
der Phytoremediation hatten wir in Kapitel 4.1 schon
erwähnt.
4.3 Plastik und Computerchips
Und immer noch Biotechnologie
Sogar bei der Herstellung eines Kunstprodukts par
excellence kommen Mikroorganismen in Frage, nämlich bei der Herstellung von Plastik. Sie sind in der
Lage, eine ganze Reihe von hochpolymeren Stoffen zu
bilden. Diese haben als so genannte Biopolymere
den Vorteil, dass sie biologisch abbaubar sind. Das
bekannteste Beispiel ist wohl nach wie vor die Polyhydroxybuttersäure (PHB), die bereits auf dem Markt ist
und u.a. für die Herstellung von Plastikflaschen verwendet wird. Trotz einer ganzen Reihe von Problemen
weist diese Entwicklung in eine interessante Richtung.
Es wird bereits daran gearbeitet, PHB in Pflanzen zu
produzieren, wodurch die Herstellkosten sinken könnten. Auch der klassische pflanzliche Reservestoff, die
Stärke, könnte dank gentechnischer Kniffe als chemischer Rohstoff noch interessanter werden. So sind beispielsweise Kartoffeln erhältlich, die Stärken mit veränderten Eigenschaften produzieren. Dadurch könnten
55
Ein bakterielles
Protein, das Bacteriorhodopsin, kann
nach gentechnischer
Veränderung mit
Licht unterschiedlicher Wellenlänge
wechselwirken.
Diese Eigenschaft
will man technisch
nutzen.
Biotechnologie und vieles mehr...
sich neue technische Anwendungsgebiete erschließen.
Insgesamt hat das Gebiet der bioabbaubaren Polymere
durch die Gentechnik in den letzten Jahren neuen
Schwung erhalten.
Eine andere verblüffende Anwendung der Gentechnik ist die im Bereich der elektronischen Datenverarbeitung. Ein Protein aus dem Bakterium Halobacterium halobium verfügt über die Eigenschaft, bei Einstrahlung von Licht einer bestimmten Wellenlänge
seine Struktur definiert zu ändern. Normalerweise
dient diese Fähigkeit der Gewinnung von chemischer
Energie und das Protein wechselt unerhört schnell von
einer Struktur zur anderen. Durch die Zusammenarbeit
von Gentechnikern und Strukturanalytikern gelang es
allerdings, Varianten des Proteins herzustellen, die
den durch Licht induzierten Zustand lange Zeit beibehalten. Dadurch wird es möglich, durch Einstrahlung
von Laserlicht zwischen zwei definierten Zuständen
des Proteins hin- und herzuschalten. Dies erinnert
nicht nur formal an die berühmten zwei Zustände 0 und
1, die der EDV-Technologie zugrunde liegen. Tatsächlich wird mit dem Protein, das den Namen Bacteriorhodopsin trägt, intensiv experimentiert und die Entwicklung hat auch zur Gründung einer kleinen Firma
geführt. Erste Anwendungen im Bereich der Bilderkennung zeichnen sich bereits ab. Vielleicht erwächst dem
Silikonchip in Zukunft ja eine ernsthafte biologische
Konkurrenz.
Visionäre Vorstellungen zielen sogar auf den
Einsatz von DNA selbst in der EDV ab. Das Prinzip solcher „DNA-Computer“ besteht darin, dass durch DNAMoleküle eine riesige Zahl verschiedener Informationen repräsentiert werden kann; darunter auch Lösungen für mathematische Probleme, die man in der DNASprache formuliert hat. Zum Beispiel konnte so schon
das „Handelsreisenden-Problem“ gelöst werden.
Dabei sucht man einen Weg, der eine Zahl von Städten
so miteinander verbindet, dass jede Stadt nur einmal
besucht wird. So trivial es auf den ersten Blick erscheinen mag, so schwierig ist die rechnerische Lösung.
Hochleistungs-Computer können zwar mühsam alle
Lösungen sequenziell berechnen, geraten aber schnell
an ihre Grenzen, wenn die Zahl der Städte einige Dutzend überschreitet. Hier braucht man parallel arbeitende Lösungsverfahren, die viele Lösungen gleichzeitig erzeugen und bewerten können. Das auf sieben
Städte reduzierte Problem konnte von einem „DNAComputer“ bereits gelöst werden. Trotz erster Erfolge
bleibt abzuwarten, ob sich mit „DNA-Computern“
56
mehr als nur ein paar ausgewählte mathematische
Probleme lösen lassen.
Des Weiteren beschäftigt sich die Computerindustrie schon lange damit, die Fähigkeiten des
menschlichen Gehirns auf so genannte neuronale
Netze abzubilden. Die Gentechnik ist hier ein wichtiges Instrument, wenn es darum geht, die Leistungen
einzelner Nervenzellen und die Grundlagen ihrer Kommunikation untereinander zu studieren. Dies wird zur
Konstruktion besonders leistungsfähiger Computer in
erheblichem Maße beitragen. Anfang 2000 wurde
berichtet, dass es erstmals gelungen sei, Nervenzellen
in technische Schaltkreise einzubauen und gezielt
anzusprechen. Auch hier muss man natürlich noch
abwarten, ob sich Vorteile aus diesen Ansätzen ergeben und ob sie sich kommerziell verwerten lassen.
Biotechnologie und Wirtschaft
5. Biotechnologie und Wirtschaft
5.1 Ein Feld für findige Firmen
Das Entstehen einer neuen Branche
Bereits Mitte der 70er Jahre begann in den USA eine
Entwicklung, deren Bedeutung in den folgenden Jahren immer deutlicher wurde: die Ausbildung einer
modernen Industrie, die auf den neuen Erkenntnissen
aus der Biotechnologie aufbaute. Schon im Jahr 1976,
also gerade einmal drei Jahre nach Veröffentlichung
des ersten gentechnischen Experiments, gründete der
Universitätsprofessor Herbert W. Boyer gemeinsam
mit dem Venture Capitalist Robert A. Swanson die
Firma Genentech in San Francisco. Viele weitere solcher Unternehmen folgten, vor allem an der West- und
Ostküste der USA. Noch heute gelten die Gegenden
um San Francisco und Boston als die eigentlichen
Hochburgen der modernen Biotechnologie weltweit.
Die neuen Methoden und Verfahren wurden
auch in den etablierten Pharmafirmen eingesetzt,
besonders effizient aber von den kleinen und agilen
Biotechnologie-Unternehmen in den USA weiterentwickelt. Man spricht von kleinen und mittleren Unternehmen (KMU) oder im englischen Sprachraum von
„Small and Medium Enterprises“ (SME). Die Unternehmenskultur in den USA bot diesen kleinen Firmen
schon früh das notwendige Kapital und gestattete eine
enge Zusammenarbeit mit den Forschern an Universitäten und Instituten. Zu dieser Zeit, Anfang der 80er
Jahre, war in Deutschland die enge Zusammenarbeit
zwischen Industrie und Universitäten eher verpönt.
Auch verbanden sich mit dem Begriff des Unternehmers mehr negative als positive Assoziationen. Und
Venture Capital zur Finanzierung neuer, wirtschaftlich
riskanter Unternehmen war kaum verfügbar. Keine
guten Voraussetzungen also, um die neue Branche in
Deutschland gedeihen zu lassen. Dem überlagerte sich
eine emotionale gesellschaftliche Auseinandersetzung um mögliche Gefahren und die sozialen Auswirkungen der modernen Biotechnologie.
So waren es in Deutschland vornehmlich die
großen Firmen, die sich der neuen Entwicklungen
annahmen. In den etablierten Strukturen der chemisch-pharmazeutischen Industrie fiel es der modernen Biotechnologie freilich schwer, sich durchzusetzen. So konnten die kleinen Unternehmen der USA
innerhalb weniger Jahre einen technologischen Vorsprung erarbeiten, den sich die USA als führende Nati-
:
Datenquelle: Ernst & Young
57
Immer mehr Firmen:
Die kommerzielle
Biotechnologie in
Europa hat sich in
den letzten Jahren
durch hohes Wachstum ausgezeichnet.
Biotechnologie und Wirtschaft
on in der Biotechnologie bis heute bewahrt haben. Aus
einigen der vormals kleinen Unternehmen haben sich
zwischenzeitlich Firmen mit vielen Tausend Mitarbeitern entwickelt. Dennoch darf man feststellen, dass
der Vorsprung gegenüber Europa und Deutschland
geringer geworden ist.
Für das Aufholen Europas und insbesondere
Deutschlands sind eine Reihe von Faktoren verantwortlich. Mit entscheidend in Deutschland war das
neue Streben nach wirtschaftlichem Wachstum – auch
in der modernen Biotechnologie. Besonders aber die
von den großen politischen Parteien gemeinsam getragene Novellierung des viel zu streng ausgelegten
deutschen Gentechnikgesetzes im Jahr 1993 wird vielfach als Startschuss für die positive Entwicklung der
Biotechnologiebranche in Deutschland gesehen. Dazu
gesellte sich mit dem Start des BioRegio-Wettbewerbs im Jahr 1995 eine Fördermaßnahme des Bundesforschungsministeriums, die sich als außerordentlich erfolgreich erwies. Der Wettbewerb spornte zahlreiche Regionen dazu an, ihre Anstrengungen in der
Biotechnologie zu bündeln und die wirtschaftliche
Nutzung der Forschungsergebnisse stärker in den Mittelpunkt zu stellen. Als Ergebnis kam es zu einer
großen Zahl an Firmenneugründungen und auch zu
ersten Börsengängen der arrivierteren deutschen Biotechnologie-Unternehmen. Weitere Fördermaßnahmen des Bundes haben diese Entwicklung flankiert.
BMBF-Aktivitäten
Zu den Fördermaßnahmen des BMBF gehörte Mitte der
80er Jahre die Initiierung der Genzentren in Berlin,
Heidelberg, Köln und München. Die Ansiedlung der
Zentren erfolgte dort, wo bereits eine gute Infrastruktur durch Universitäten, Max-Planck-Institute und
andere Einrichtungen gegeben war. Dieser Umstand
und die Einwerbung von Nachwuchsgruppen auf Zeit
haben die Genzentren sehr erfolgreich werden lassen.
Es ist kein Zufall, dass in jeder Modellregion des BioRegio-Wettbewerbs auch ein Genzentrum liegt und
dass sich die größte Zahl der Biotech-KMU heute um
diese Genzentren gruppiert.
Sehr positiv für die Entwicklung der kommerziellen
Biotechnologie hat sich auch eine Finanzierungsmaßnahme ausgewirkt, die aus Mitteln des BMBF unterstützt wird: Die Kreditanstalt für Wiederaufbau bzw.
die Technologie-Beteiligungs-Gesellschaft bietet jun-
58
gen Firmen Kredite zu sehr günstigen Konditionen an.
Diese Kredite sind bereits von zahlreichen jungen Biotechnologie-Unternehmen in Anspruch genommen
worden.
Für das Wachstum der Biotechnologie hält das BMBF
noch viele weitere Anreize und flankierende Maßnahmen bereit. Dazu gehörten Anfang 2000 die Fördermaßnahmen BioChance, BioProfile und BioFuture
ebenso wie die Unterstützung von ausgesuchten Forschungsschwerpunkten, beispielsweise in der Genomforschung. Maßnahmen zur Information der Öffentlichkeit wie die Förderung des Informationssekretariats
Biotechnologie in der DECHEMA e.V. oder die Förderung des Science live-Mobils, eines mobilen und vor
allem für Schulen zugänglichen Labors, runden das
Angebot ab. Insgesamt werden von der Bundesregierung jährlich rund 1,5 Milliarden Mark für den Bereich
der Life Sciences ausgegeben. Davon trägt das BMBF
den Hauptanteil.
Im Vergleich zu den USA ist die Bilanz allerdings
immer noch ernüchternd. Den dort Anfang 2000 an der
Börse notierten mehr als 300 Biotechnologie-Unternehmen standen in Deutschland noch nicht einmal 10
solcher Firmen gegenüber. Auch mit Blick auf die
Größe der Firmen hinsichtlich Mitarbeiterzahl und
Umsatz ist der Abstand zu den USA noch erheblich.
Doch scheint die Branche nun auf dem richtigen Weg
zu sein. Zahlreiche Forschungsabkommen mit nationalen und internationalen Großunternehmen bestehen
bereits und deutsche Firmen erweisen sich als gleichwertige Partner im internationalen Wettbewerb. Aus
den vereinzelten Firmen der 80er Jahre beginnt sich
eine selbstbewusste und dynamische Branche zu entwickeln.
Für Hochschulabsolventen erweisen sich die
Biotechnologie-Unternehmen als ebenso attraktiv wie
für erfahrene Manager aus großen Unternehmen.
Allerdings zeigt sich, das Angebot und Nachfrage
nicht immer zusammenpassen. Es wird in den nächsten Jahren daher besonders wichtig sein, die Ausbildung an den Hochschulen den neuen Anforderungsprofilen anzupassen und auch kurzfristige Lösungsansätze zu erproben. Das wird ein hohes Maß an Flexibiliät
bei allen Beteiligten erfordern. Aber man wird den
Herausforderungen durch die sich rasch verschiebenden Schwerpunkte in der Biotechnologie nur durch
diese Flexibilität begegnen können.
Eine besonders enge Verbindung ist die Biotechnologie mit der Pharmaindustrie eingegangen. Das hat
Biotechnologie und Wirtschaft
unter anderem dazu geführt, dass viele der großen
Konzerne die eigene Forschung zugunsten einer
Zusammenarbeit mit den stark forschungsorientierten
Biotechnologie-Unternehmen zurückgefahren haben.
Diese finanzieren ihr Wachstum also häufig über
Kooperationen mit Pharmafirmen. Selten sind dagegen die Fälle geblieben, in denen BiotechnologieUnternehmen die eigenen Produkte bis zur Marktreife
entwickelt und anschließend auch selbst in den Markt
eingeführt haben. Die große Zahl neuer Produkte und
die neuen Heilverfahren, die von den BiotechnologieUnternehmen erforscht und entwickelt werden, könnte
mittelfristig aber eine Neuaufteilung bestehender
Marktsegmente und eine Neuorientierung in der Pharmabranche bewirken. Bereits klar zu erkennen ist ein
Trend weg von der „vollintegrierten“ Pharmafirma, die
von der Ideenfindung bis zur Einführung eines neuen
Produktes alles selber macht, hin zu einem Zusammenspiel hoch spezialisierter Firmen, die nur noch in
bestimmten Teilbereichen ihre Expertise besitzen.
Wenngleich viel heftiger diskutiert, erscheinen
die Auswirkungen der Biotechnologie im landwirtschaftlichen Bereich vorerst geringer. Die Verwendung
gentechnisch veränderter Pflanzen ändert an den prinzipiellen landwirtschaftlichen Verfahren zunächst einmal nichts. Doch erwarten viele Experten, dass die
möglichen Anwendungen der Biotechnologie im Agrosektor eine größere kommerzielle Bedeutung gewinnen
könnten als im Pharmabereich. Hier gilt es daher, Möglichkeiten für die Entwicklung innovativer Produkte
frühzeitig zu erkennen und diese entsprechend zu entwickeln. Dass dies nur mit dem Verbraucher und nicht
gegen den Markt gelingen kann, ist selbstverständlich.
Über die Auswirkungen der Biotechnologie auf
den Arbeitsmarkt ist bereits viel diskutiert worden.
Hier gibt es, ausgehend von unterschiedlichen Definitionen und Szenarien, weit auseinander liegende Einschätzungen. Folgt man den Zahlen der Unternehmensberatung Ernst&Young, deren jährliche Reports die Biotechnologie in den USA und Europa seit Jahren begleiten, dann ergibt sich für die USA eine Beschäftigtenzahl von über 150.000 zu Beginn des Jahres 2000. Europa liegt mit rund 54.000 Beschäftigten deutlich zurück,
hat aber in den Zuwachsraten mit den USA gleichgezogen. Angesichts dieser Zahlen lässt sich eine Bedeutung der Biotechnologie für den Arbeitsmarkt kaum
leugnen, auch nicht angesichts offensichtlicher Substitutionseffekte im Pharmabereich. Es ist klar, dass bei
der oben beschriebenen engen Interaktion zwischen
Biotechnologie und Pharma auch Arbeitsschwerpunkte
und damit Arbeitsplätze verlagert werden.
Mit dem Jahr 2000 ist, so wird von vielen Seiten
bestätigt, das Jahrhundert der Biowissenschaften eingeläutet worden. Bereits eingangs der Broschüre
haben wir darauf hingewiesen, dass solch scheinbar
eindeutige Aussagen durch die stärkere Durchlässigkeit zwischen den Disziplinen an Bedeutung verloren
haben. Dort, wo aus der Begegnung unterschiedlichen
Wissens neue Ideen geboren werden, werden auch die
wichtigsten Innovationen entstehen. Unstrittig ist
aber, dass in den letzten Jahrzehnten wesentliche
Impulse für Fortschritte in der Wissenschaft und für
unser Verständnis vom Leben aus der Biologie gekommen sind. Das wird auch in absehbarer Zukunft noch so
Besonders in
Deutschland gab es
in den letzten
Jahren einen Gründungsboom in der
Biotechnologie.
Datenquelle: Informationssekretariat Biotechnologie
59
Biotechnologie und Wirtschaft
bleiben. Wir sehen uns dadurch in die Lage versetzt,
vom Leben zu lernen und die gewonnen Erkenntnisse in
Produkte und Verfahren umzusetzen, die dem Wohl
unserer Gesellschaft dienen. Diese Möglichkeit sollten wir mit Nachdenklichkeit, aber auch vorausschauend und mit Tatkraft nutzen.
5.2 Die Claims werden
abgesteckt
Patente auf biotechnische Erfindungen
In der manchmal hitzigen Diskussion um die Anwendungen der Biotechnologie und insbesondere der Gentechnik spielt auch die Erteilung von Patenten immer
wieder eine Rolle. Als etabliertes Instrument des wirtschaftlichen Handels von der Öffentlichkeit jahrzehntelang zunächst völlig unbeachtet, gewann das Patentieren im Zusammenhang mit der Biotechnologie eine
unerwartete Publizität. Was ist der Grund?
Eine Antwort mag die Schlagzeile „Keine Patente auf Leben“ sein, die immer wieder auftaucht und auf
Das Europäische
Patentamt in
München befindet
auch über Patentanmeldungen aus
der Biotechnologie.
60
Transparenten hochgehalten wird. Hierin drückt sich
wohl die Angst aus, Leben könne durch neue wissenschaftliche Erkenntnisse nicht nur immer besser verstanden und beherrschbar werden, sondern womöglich zum Besitz einiger weniger Menschen verkommen.
Doch derartige Ängste gehen an der Realität vorbei.
Für die Erteilung von Patenten sind nationale
oder supranationale Ämter zuständig, die den Patentinhalt nach formalen Kriterien prüfen. Dabei geht es im
Wesentlichen um Neuheit, um Reproduzierbarkeit und
um technische Anwendbarkeit. Sind diese Kriterien
erfüllt, kann ein Patent erteilt werden. Das erteilte
Patent stellt nun aber keinesfalls eine Ausübungsgenehmigung dar. Es bestätigt dem Patentinhaber lediglich, dass er bei einer eventuellen Ausübung des
Patents nicht andere Patente verletzt, und gibt ihm das
Recht, Wettbewerbern die Nutzung seines eigenen
Patents zu verbieten. Will er das Patent tatsächlich
kommerziell verwerten, muss er dann aber selbstverständlich die geltende Rechtslage berücksichtigen. Ein
erteiltes Patent hat ja keinen Gesetzeswert. So ist
Anfang 2000 vom Europäischen Patentamt ein Patent
zur Herstellung von gentechnisch veränderten humanen Stammzellen erteilt worden, das für viel
Aufregung gesorgt hat.
Diese Erteilung hat schon
formal gegen geltende Patentrichtlinien verstoßen.
Die Ausübung eines solchen Patents ist durch die
Bestimmungen des Embryonenschutzgesetzes in
Deutschland untersagt.
Am 10.03.2000 hat die
Bundesministerin
der
Justiz, Frau Prof. Dr. Herta
Däubler-Gmelin, folgerichtig gegen diese Patent
(EP0695361) Einspruch erhoben. Schließlich legt
der Gesetzgeber fest, was
zulässig ist, und nicht das
Patentamt.
Patente sollen ein Anreiz
für Erfinder sein, ihre
neuen Erkenntnisse der
Öffentlichkeit mitzuteilen.
Biotechnologie und Wirtschaft
Der Erfinder erhält dafür das Recht, den Erfindungsgegenstand eine bestimmte Zeit lang exklusiv wirtschaftlich nutzen zu dürfen. Ist diese Frist – in Europa
beträgt sie 20 Jahre vom Zeitpunkt der Patenteinreichung an – vorüber, wird die Erfindung frei zugänglich
und kann von jedem genutzt werden. Der Erfinder hat
durch den Patentschutz einen wirtschaftlichen Vorteil,
weil er gegenüber der Konkurrenz – idealerweise –
einen technischen Vorsprung gewinnt. Die Gesellschaft profitiert, weil die Erfindung in den allgemeinen
Wissensschatz eingeht und nicht womöglich mit dem
Erfinder stirbt. Die Patentierung einer Erfindung muss
für den Erfinder oder eine Firma nicht immer ein Vorteil
sein. Bestes Beispiel ist das Rezept für Coca-Cola.
Wäre das Rezept schon vor vielen Jahrzehnten patentiert worden, dürfte heute jeder dieses Getränk herstellen. Die Patente haben ja eine zeitlich begrenzte
Laufzeit. Nur weil die Firma die Rezeptur geheim
gehalten hat, profitiert sie auch heute noch davon.
Deshalb ist es immer wieder eine wirtschaftliche
Überlegung, ob man den Gegenstand einer Erfindung
offen legt und dafür ein Patent erlangt oder ob man ihn
geheim hält.
Im pharmazeutischen Sektor sind Patente längst
ein gängiges Instrument. Die Struktur von neuen Wirkstoffen könnte man gar nicht geheim halten, eine
schlichte chemische Analyse würde sie der Konkurrenz
offenbaren. Außerdem ist eine Offenlegung gegenüber den Zulassungsbehörden unerlässlich. Also wird
hier ebenso wie in vielen anderen Wirtschaftszweigen
mit Patenten gearbeitet. Die Möglichkeit, biotechnische Erfindungen zu patentieren, wird von den auf diesem Gebiet tätigen Firmen geradezu für unerlässlich
gehalten. Denn der Patentschutz gestattet es den Firmen, eine bestimmte Zeit lang die von ihnen gemachten Erfindungen zu vermarkten, ohne dass ein Konkurrent diese neuen Entwicklungen einfach kopieren
kann. Dadurch ergibt sich für die Firmen eine höhere
Aussicht darauf, dass die teils sehr hohen Kosten für
Forschung und Entwicklung auch wieder hereingeholt
werden können.
Wie auch beim eingangs zitierten Beispiel hat
sich aber gerade gegen die Patentierung biotechnischer Erfindungen heftiger Widerstand geregt. Immer
wieder wird von einer Patentierung des Lebens
gesprochen, von einem Verfall sittlicher Normen und
einer Herabwürdigung von Tieren und Pflanzen zu reinen Verfügungsgegenständen. Auch im Zusammenhang mit der Sequenzierung des humanen Genoms und
anderer Genome haben sich Diskussionen ergeben, die
sich im Wesentlichen um die Patentierung einzelner
Gene drehen. Denn das Wissen um die Funktion von
Genen, beispielsweise mit Blick auf das Auftreten von
Krankheiten, stellt sich immer häufiger als ein Vorteil
bei der Entwicklung von Medikamenten heraus. Die
Gene könnten vielleicht sogar selbst einmal, wie bei
der Somatischen Gentherapie, das Medikament darstellen. Kein Wunder also, dass Firmen an einer Patentierung von Genen interessiert sind.
Nach formalen Kritierien sind Gene durchaus
patentierbar. Vorausgesetzt, die Gensequenzen sind
neu und die Gene oder ihre Produkte können gewerblich
genutzt werden. Gerade der letzte Punkt ist von großer
Bedeutung. Ohne in die Tiefen des Patentwesens einsteigen zu wollen kann man sagen, dass die gewerbliche Nutzung den wichtigen Unterschied zwischen einer
Entdeckung und einer Erfindung ausmacht. So stellt die
reine Klonierung und Sequenzierung eines Gens noch
keinen patentierbaren Sachverhalt dar, sondern entspräche einer Entdeckung, wie beispielsweise der des
Penicillins. Beim Penicillin machte erst die Erkenntnis,
dass der Stoff als Antibiotikum einsetzbar ist, aus der
Entdeckung eine gewerblich nutzbare Erfindung. Bei
Genen sind ganz unterschiedliche Nutzungen vorstellbar und es wird noch heftige Auseinandersetzungen
darüber geben, wie genau diese Nutzungen beschrieben sein müssen, um ein Patent zu rechtfertigen.
Die Prüfung, ob eine Patentanmeldung auch
wirklich patentwürdig ist, kann viele Jahre dauern.
Hier gibt es zahlreiche Kriterien, die unterschiedlich
ausgelegt werden können und oft zu langen Auseinandersetzungen zwischen Antragsteller und Patentamt
führen. Für den Antragsteller bleiben oft nur wenige
61
Aus Entdeckungen
werden Erfindungen: Prinzipien der
Natur können für
technische Anwendungen nutzbar
sein.
Biotechnologie und Wirtschaft
Jahre Zeit, um nach endgültiger Erteilung des Patents
von seinem exklusiven Nutzungsrecht Gebrauch zu
machen. Die Laufzeit des Patents beträgt ja zwanzig
Jahre schon ab Anmeldung, nicht erst ab Erteilung.
Besonders im Pharmabereich klagen daher viele Firmen darüber, dass die Laufzeit von Patenten zu kurz ist.
Neben solchen formalen Kriterien spielen aber
im Zusammenhang mit Patenten auf biotechnische
Erfindungen auch gefühlsmäßige Dinge eine Rolle. Die
nüchterne Technisierung des Lebendigen wird von
einigen beklagt und als bedrohlich empfunden. Doch
kann man Gene schlicht als körpereigene Stoffe sehen
wie Insulin oder andere Proteine, deren Patentierung
sicher niemandem geschadet hat. So bleibt als wichti-
Die Zeit läuft:
Patente werden nur
für eine beschränkte
Zeitdauer erteilt.
ge Frage vor allem offen, ob durch eine Patentierung
von Genen womöglich der wissenschaftliche Fortschritt behindert wird. Manche Wissenschaftler fürchten, durch die Patente von Firmen in ihrer Arbeit eingeschränkt zu werden. Dies ist trotz einer an sich klaren
Abgrenzung von Forschung und kommerzieller Nutzung
– Forschung darf ungeachtet bestehender Patente
immer betrieben werden – wegen unterschiedlicher
Begriffsauslegungen nicht immer gänzlich auszuschließen. Solchen Tendenzen muss daher entgegengewirkt werden. Sie sind aber im Zusammenhang mit
Patenten schon lange Gegenstand der Diskussion und
62
es kann davon ausgegangen werden, dass die Regeln,
die sich im Pharmabereich über viele Jahrzehnte
bewährt haben, auch mit Blick auf die Biotechnologie
greifen werden. In strittigen Fällen wäre es letztlich
auch wieder dem Gesetzgeber vorbehalten, eine
Abschwächung von Patentansprüchen zu erzwingen.
Gefühle spielen wohl besonders dann eine Rolle,
wenn es nicht nur um die Patentierung von Genen, sondern um die Patentierung von Lebewesen geht. Mit
Blick auf Mikroorganismen erschien das noch wenig
problematisch. Hier gab es bereits eine lange Tradition
und wenn überhaupt nur geringe Vorbehalte. Mikroorganismen werden schon seit rund 100 Jahren patentiert.
Im Bereich der Pflanzen und Tiere ergaben sich
allerdings eine Reihe von neuen Fragestellungen.
Diese hatten sowohl einen formalen als auch einen
grundsätzlichen Hintergrund. Bei den formalen Kriterien ging es vor allem darum, wie man gentechnisch veränderte Pflanzen und Tiere behandeln sollte. Nach bislang geltendem Patentrecht waren Pflanzen und Tiere
nicht patentierbar, sondern unterlagen anderen Regelungen, beispielsweise dem Sortenschutz. Gentechnische Veränderungen können aber prinzipiell auf verschiedenste Sorten angewendet werden und benötigten nach Ansicht der Fachleute daher eine breitere
Abdeckung. Nach jahrelangen Diskussionen wurde
vom Europäischen Patentamt im Herbst 1999 eine
Patentrichtlinie verabschiedet, die eine Patentierung
gentechnisch veränderter Pflanzen und Tiere prinzipiell erlaubt.
Neben anderen Aspekten geht es nicht zuletzt
um die Frage, ob eine Patentierung eine zu starke
Reduktion von Lebewesen allein auf den Nutzen, den
sie für den Menschen haben, bedeutet. Betrachten wir
den Fall, dass ein transgenes Schaf ein menschliches
Gen enthält und dadurch in der Lage ist, ein therapeutisch wichtiges menschliches Protein in seiner Milch
herzustellen. Das Schaf erleidet dadurch keine Nachteile, sondern ist in seinen sonstigen Eigenschaften
völlig unverändert. Sämtliche Gesetze und Bestimmungen für eine tiergerechte Haltung bleiben in Kraft.
Ein Patent auf ein solches Schaf wird dessen Lebensqualität schwerlich beeinflussen können. Das Patent
ändert auch nichts am Verhältnis zu den für den Tierschutz verantwortlichen Behörden, die ihre Aufsichtsbefugnisse in vollem Umfange wahren.
Eine andere Komponente kommt ins Spiel, wenn
wir den Fall der so genannten Onkomaus betrachten.
Biotechnologie und Wirtschaft
Das ist das Beispiel, an dem sich die Diskussionen um
eine allgemeine Patentierbarkeit transgener Tiere bei
uns ganz wesentlich entzündet hat. Im Fall der „Onkomaus“ ist durch Einklonieren eines menschlichen
Krebsgens eine Mauslinie entstanden, deren Mitglieder frühzeitig und reproduzierbar bestimmte Tumorarten entwickeln. Damit ist diese Mauslinie ein wertvolles Modell für neue Medikamente, die Krebsleiden
beim Menschen lindern können. Wir nehmen dafür
bewusst in Kauf, dass die Mäuse unter den verursachten Tumoren zu leiden haben. Dem Nutzen für den Menschen steht hier – wie bei vielen anderen Krankheitsmodellen auch – ein Leiden des Tieres gegenüber.
Diese Konstellation ist unter ethischen Gesichtspunkten vielfach diskutiert worden und wird es auch heute
noch. Zumeist werden Tiermodelle als vertretbar angesehen, wenn ein großer Nutzen für die Erforschung
schwerer menschlicher Krankheiten, wie Krebs oder
AIDS, die Leiden des Tieres aufwiegen kann. Ein wenig
bekannter Umstand soll in diesem Zusammenhang
abschließend noch erwähnt werden. Viele Medikamente, die für den Menschen entwickelt wurden, finden
auch bei unseren Haustieren Anwendung.
63
Biotechnologie und Gesellschaft
6. Biotechnologie und Gesellschaft
6.1 Wer nicht wagt...
Risiken und ihre Wahrnehmung
Die bisherige Diskussion um die Anwendungen der
modernen Biotechnologie hat verschiedene Phasen
durchlaufen. Sie begann schon sehr früh unter den
Wissenschaftlern, die sich mit möglichen inhärenten
Gefahren der neuen Vorgehensweisen beschäftigten.
Keine Berührungsängste: Bundesministerin Bulmahn
setzt sich für den
Dialog mit der
Öffentlichkeit ein,
hier im „Sciencelive-Mobil“
Diese Sicherheitsdiskussion wurde von der Politik und
der Öffentlichkeit mit kurzer Verzögerung aufgenommen. Im weiteren Verlauf überlagerte sich der reinen
Sicherheitsdiskussion dann immer mehr ein Abwägen
der gesellschaftlichen Konsequenzen, die sich aus den
Anwendungen der Biotechnologie ergeben könnten.
Eine konsequente Ablehnung aller, insbesondere der gentechnischen Anwendungen der modernen
Biotechnologie findet heute kaum noch Unterstützung.
Dafür sind die Vorteile gerade im medizinischen Sektor
zu offensichtlich. Auch Kapitel 7 am Ende dieser Broschüre macht das deutlich. Dennoch müssen die möglichen Konsequenzen einer immer besser werdenden
Diagnostik und einer immer individueller werdenden
Therapie weiter diskutiert werden. Im Bereich der Diagnostik dürfen die Patienten, denen mit hoher Sicherheit eine genetische Prädisposition für ein bestimmtes
64
Leiden bestätigt wird, mit dieser Information nicht
allein gelassen werden. Hier muss für die notwendige
Betreuung gesorgt werden. Es darf weiterhin nicht zur
Diskriminierung aufgrund der individuellen genetischen Ausstattung kommen. Und es muss insbesondere dafür gesorgt werden, dass der medizinische Fortschritt für alle gleichermaßen verfügbar bleibt. Damit
sind nur einige Punkte genannt, denen wir unsere Aufmerksamkeit im medizinischen Bereich schenken müssen.
Die Diskussion um die Biotechnologie im
Agrobereich hat seit 1999 an Schärfe wieder zugenommen. Rückblickend wirkt sich hier die Tatsache, dass
nicht von Anfang an eine klare Kennzeichnung der
neuen Produkte erfolgt ist, sehr negativ aus. Besonders in Europa konnte dadurch der Eindruck entstehen,
dass seitens der Industrie Produkte in den Markt eingeführt werden sollten, ohne für eine ausreichende
Information der Verbraucher zu sorgen. Auch mag die
Tatsache eine Rolle spielen, dass die ersten gentechnisch veränderten Pflanzen vor allem für die Landwirte
Vorteile brachten, nicht aber unmittelbar für den Verbraucher. Dass die größten Fortschritte auf diesem
Gebiet vor allem in den USA erzielt wurden und von
den Firmen dort aggressiv vermarktet worden sind, hat
vielleicht noch ein Übriges getan.
In dieser Diskussion gilt es nun, wieder stärker
zwischen wissenschaftlichen und gesellschaftspolitischen Fragen zu unterscheiden. Noch immer stehen
Warnungen vor schädlichen Auswirkungen im Raum
und müssen überall dort ernst genommen werden, wo
sie nicht jeder Grundlage entbehren. Die wissenschaftliche Auseinandersetzung wird hier weitergehen. Dabei wird man in zunehmendem Maß auf die
Erfahrungen mit großflächigem Anbau in den USA und
anderen Ländern zurückgreifen können. Wichtig bleibt
für eine Beurteilung natürlich immer der Vergleich mit
den bisher eingesetzten Methoden. In Deutschland
werden Freisetzungsexperimente von einer umfangreichen Sicherheitsforschung begleitet.
Biotechnologie und Gesellschaft
BMBF-Aktivitäten
Schon seit 1987 wird durch das BMBF in einem eigenständigen Programm die „Biologische Sicherheitsforschung“ im Bereich der Bio- und Gentechnologie gefördert. Aktuelle Ergebnisse wurden anlässlich eines
Statusseminars Mitte 1999 vorgestellt.
Der Mensch wird aber auch weiterhin gezwungen sein, in Zeiten der Unsicherheit zu entscheiden.
Der Anspruch, vorausschauend alle denkbaren Risiken
auszuschließen, kann schlicht nicht erfüllt werden. Bei
der Entscheidungsfindung müssen Chancen und Risiken deshalb gegeneinander abgewogen werden.
Dabei definiert sich ein Risiko mathematisch über die
Multiplikation einer vermuteten Schadenshöhe mit der
Eintrittswahrscheinlichkeit. Bei steigendem Wohlstand werden die Risiken gegenüber den Chancen
offenbar immer stärker gewichtet. Auch die Diskussion um Anwendungen der modernen Biotechnologie in
der Medizin hat das gezeigt. Solange die Chancen in
gleicher Weise hypothetisch waren wie die Risiken,
überwog eine ablehnende Haltung in der breiten
Öffentlichkeit. Eine spürbare Wende hin zur Akzeptanz
vollzog sich erst, als die Chancen in Form neuer Medikamente und Therapieansätze für die Öffentlichkeit
konkret erfahrbar wurden.
Eine Risikodiskussion bleibt wichtig. Sinnvoll
kann sie aber nur geführt werden, wenn sie sich an
belegbaren Daten orientiert. Dabei muss eine Forderung an die Wissenschaft sein, dass komplizierte
Sachverhalte auch für den Nichtfachmann nachvollziehbar dargestellt werden. Die Forderung an eine
eventuelle Kritik der Biotechnologie muss sein, dass
sie sachliche Argumente gelten lässt und nicht mit reinen Behauptungen agiert. In der Vergangenheit sind
beide Forderungen nicht immer erfüllt worden. Es
muss in der Risikodiskussion nicht notwendigerweise
einen Konsens geben. Konsens ist wünschenswert,
aber nicht zwingend erforderlich. Eine Demokratie lebt
meist in einem – hoffentlich konstruktiven – Dissens.
Davon wird sie letztlich stark belebt und gewinnt viele
Anregungen.
Ein weiterer wichtiger Punkt ist die Risikowahrnehmung. Eine große Rolle spielt in diesem Zusammenhang die generelle Einstellung gegenüber dem
Unvorhergesehenen. Für einen Forscher ist das Unvorhergesehene das eigentlich Interessante. Er interessiert sich in aller Regel ja für das Neue, das Unentdeckte, dem es nachzuspüren gilt. Ein vorhersagbares
Ergebnis ist lediglich hochwillkommen zum Untermauern einer Theorie, ansonsten aber eher langweilig. Die
breite Öffentlichkeit ist andererseits schnell beunruhigt, wenn bei einem Experiment etwas anderes herauskommt, als erwartet wurde. In der Kommunikation
zwischen Forschern und der Öffentlichkeit müssen
diese unterschiedlichen Positionen größere Beachtung finden.
Von manchen Menschen wird ein gezielter missbräuchlicher Einsatz der Biotechnologie befürchtet. Die
großartigen Möglichkeiten, die sie bei positiver Anwendung eröffnet, könnten bei Missbrauch womöglich zu
schlimmen Konsequenzen führen. Es ist daher verständlich, wenn sich angesichts des großen Potenzials gerade in der Gentechnik auch Unbehagen einstellt. Dieses
Unbehagen richtet sich nicht zuletzt auf einen Einsatz
der neuen Methoden im militärischen Bereich.
65
Ohne Risikobereitschaft...
...kein Fortschritt.
Biotechnologie und Gesellschaft
Eine solche Anwendung ist zwar denkbar. Man
kann durch eine ganze Reihe von Methoden gefährliche Mikroorganismen noch gefährlicher machen.
Deutschland allerdings wird keine biologischen Waffen entwickeln und hat sich durch Ratifizierung einer
internationalen Konvention hierzu bekannt. Entsprechende Arbeiten sind bei uns gesetzlich verboten. Es
muss Ziel der Politik sein, ein Verbot solcher Arbeiten
auch in den Ländern zu erreichen, die das Abkommen
bislang noch nicht ratifiziert haben.
6.2 Kreuz und quer?
Das Vagabundieren von Genen
Das Verhalten von
gentechnisch eingeführten Erbanlagen
wird in Freilandversuchen sorgfältig
kontrolliert.
Es wird allzu leicht vergessen, dass der Mensch vor
allem dadurch vehement in die Natur eingreift, dass er
die dort herrschenden Selektionsbedingungen zu seinen Gunsten verändert. Durch intensive Hege und Pflege hat er Tieren und Pflanzen zum Überleben verholfen,
die ihm nützlich sind, in der freien Natur aber wenig
durchsetzungsfähig wären. Das ist bei unseren Hausund Nutztieren – vom Schoßhündchen zum Hausschwein, vom Schaf zur Milchkuh – besonders offensichtlich. Es trifft aber genauso auf viele Mikroorganismen und auf die Pflanzensorten zu, deren hohe
Erträge unseren Bedarf an Nahrungsmitteln sichern
helfen. Und es gilt auch für die meisten gentechnisch
veränderten Organismen. Sie werden gezüchtet, um
sich im Rahmen der vom Menschen vorgegebenen
Selektionsbedingungen zu bewähren und damit seinen
66
Ansprüchen zu genügen. Sie tun das oft schneller und
besser als Organismen, die durch klassische Methoden gezüchtet werden.
Gentechnisch veränderte Organismen erhalten
in aller Regel keine Eigenschaften, die ihnen einen
Vorteil in der Natur bieten würden. Dennoch muss man
sich besonders mit Blick auf Freisetzungsexperimente
fragen, ob es zur Auskreuzung von Genen, also der
Übertragung von Fremdgenen durch natürliche Kreuzung – z.B. aus gentechnisch veränderten Kulturpflanzen – auf Wildpflanzen, kommen und welche Auswirkungen das haben kann. Bestimmte Kulturpflanzen,
beispielsweise Mais und Kartoffel, sind bei uns nicht
heimisch, sondern vor langer Zeit eingeführt worden.
Daher haben diese Kulturpflanzen keine „wilden“ Verwandten in unseren Breiten, mit denen sie sich kreuzen könnten. In diesen Fällen wäre also ein Anbau gentechnisch veränderter Pflanzen mit Blick auf ein Auskreuzen von Genen unproblematisch. Die Übertragung
fremder Erbinformation innerhalb verwandter Arten,
z.B. von gentechnisch verändertem Raps auf den
„wilden Verwandten“, den Rübsen, ist dagegen möglich. Kreuzungen zwischen Raps und Rübsen sind in der
Natur ja üblich. Man muss in einem solchen Fall
abschätzen, ob die neu erworbene Eigenschaft einen
Selektionsvorteil für die Wildpflanze bedeuten kann.
Die Meinungen darüber können auseinander gehen
und müssen wissenschaftlich geprüft werden.
Eine andere Befürchtung geht dahin, dass die
aus technischen Gründen in die Pflanzen eingeführten
Resistenzgene von verrottendem Pflanzenmaterial auf
Mikroorganismen des Bodens übergehen
könnten. Hierfür müsste man zunächst
einmal eine Genübertragung über Artengrenzen hinweg voraussetzen, die in der
Natur äußerst selten ist und die ja das
eigentlich neue Element der Gentechnik
darstellt. Betrachten wir einen solchen
Gentransfer trotzdem als relevant. Resistenzgene sind bei Mikroorganismen weit
verbreitet. Die in der Pflanzen-Gentechnik
verwendeten Resistenzgene stammen
ursprünglich aus Mikroorganismen. Es
würden also im angenommenen Fall
Gene, die aus Mikroorganismen stammen, wieder in Mikroorganismen zurücktransferiert. Darin lässt sich kein neues
Risiko erkennen, selbst dann nicht, wenn
es sich um unterschiedliche Mikroorga-
Biotechnologie und Gesellschaft
Veränderte Rapspflanzen könnten
verbesserte
Rohstoffe liefern.
nismenstämme handeln sollte. Denn eine direkte
Genübertragung zwischen verschiedenen Mikroorganismen ist sehr viel wahrscheinlicher. Für einen solchen Austausch hat die Natur mit Plasmiden und Bakteriophagen sehr effiziente Systeme entwickelt. Den
spekulativen Umweg über die Pflanzen muss man dazu
nicht konstruieren. Es ergibt sich für das angenommene Szenario daher eine fehlende Schadenshöhe bei
extrem niedriger Eintrittswahrscheinlichkeit.
Die Sorge allerdings, dass mit den Antibiotika
die schärfsten Waffen stumpf werden, die wir im
Kampf gegen zahlreiche Infektionskrankheiten haben,
ist unabhängig vom obigen Fall sehr wohl berechtigt.
Durch den hohen Selektionsdruck, der durch die weltweite Anwendung von Antibiotika ausgeübt wurde,
sind zunehmend resistente Stämme aufgetreten. Darauf ist in Kapitel 2.7 bereits hingewiesen worden.
Diese Stämme haben überall dort einen Überlebensvorteil, wo Antibiotika eingesetzt werden. Dazu
gehören natürlich auch unsere Krankenhäuser, wo das
Phänomen resistenter Mikroorganismen unter dem
Namen Hospitalismus zu einem echten Problem
geworden ist. In den vergangenen Jahren konnte man
die pathogenen Mikroorganismen durch immer neue
und verbesserte Antibiotika in Schach halten. Heute
beginnen solche Antibiotika knapp zu werden. Die
klassische Biotechnologie verbündet ihre Kräfte deshalb mit der Gentechnik. Der Gedanke dabei ist, die
Syntheseleistungen unterschiedlicher Antibiotikaproduzierender Stämme durch Gentransfer zu vereinen
und so neue Antibiotika zu generieren. Auch darauf
wurde bereits hingewiesen.
6.3 Prognosen sind schwierig...
...besonders wenn sie in die Zukunft
gerichtet sind
Dieses nicht ganz ernst gemeinte Zitat soll daran erinnern, dass Vorhersagen sicher ihren Wert haben, aber
nur selten mathematisch exakt sein können. Das
macht ja vielleicht auch ihren Reiz aus. Es soll an dieser Stelle trotzdem versucht werden, ein wenig in die
Entwicklung der nächsten Jahre hineinzudenken.
Wenig Zweifel gibt es daran, dass die Biotechnologie in den nächsten Jahren ihren Siegeszug fortsetzen
wird. Vor allem den Erfolgen im medizinischen Sektor
werden sich weitere hinzugesellen. Fachleute gehen
davon aus, dass schon Ende der 90er Jahre jedes neu
entwickelte Medikament von den Erkenntnissen der
Biotechnologie profitierte. Die Sequenzierung des
menschlichen Genoms wird einen neuen Erkenntnisschub auslösen und viele Ansatzpunkte für die Bekämpfung von Krankheiten liefern. Dabei dürften die Therapien immer individueller auf die genetische Ausstattung
der einzelnen Patienten zugeschnitten werden. Neue
Therapieformen wie die Somatische Gentherapie, aber
auch neue Transplantationsverfahren werden getestet
und möglicherweise in die medizinische Praxis eingeführt werden. Hier werden insbesondere auch solche
Verfahren Bedeutung erlangen, die sich vorbeugend
gegen Zivilisations- und Infektionskrankheiten richten.
Bei allem Fortschritt in der Medizin werden wir
die biologische Uhr aber nicht anhalten können. Das
hätte unter Evolutionsaspekten ja auch keine Vorteile
67
Biotechnologie und Gesellschaft
Gemeinsames Erbe:
Trotz ihrer Vielfalt
unterscheiden sich
die Menschen in
ihrer genetischen
Ausstattung nur
wenig.
für die Gattung Mensch. Der Mensch wird sich als Individuum daher trotz der zukünftigen Möglichkeiten
damit abfinden müssen, dass es keine lebenslange
körperliche Frische geben kann. Den Traum von ewiger
Jugend und Gesundheit wird er nach heutiger Erkenntnis nie realisieren können. Die Medizin kann dank
neuer Erkenntnisse und Verfahren die menschlichen
Gebrechen zwar erheblich besser bekämpfen als noch
vor einigen Jahrzehnten. Aber bekannte und neue
Krankheiten, Unfälle und der schlichte Alterungsprozess werden uns weiterhin begleiten. Diesen Umstand
müssen und können wir akzeptieren. Andererseits
wird es das Bestreben des Menschen bleiben, gegen
das anzukämpfen, was er als Beeinträchtigung seiner
Lebensqualität empfindet. Hier stehen Krankheiten
sicher ganz vornean. Man wird im Zuge des medizinischen Fortschritts dann darauf achten müssen, dass
68
eine weitgehende Beherrschung bestimmter Leiden
nicht dazu führt, dass die
dennoch Betroffenen womöglich ausgegrenzt werden. Gerade diese haben
die Aufmerksamkeit und
Zuwendung der Gesunden
besonders nötig. Ein Diskriminieren von kranken
Menschen darf es nicht
geben.
Auch die medizinische
Diagnostik wird sich erheblich verbessern. Die
intensive Untersuchung
der menschlichen Erbsubstanz macht es bereits
heute möglich, die Anfälligkeit gegenüber bestimmten
Krankheiten
durch DNA-Analyse genau
und schnell vorherzusagen. Diese Diagnosen
werden immer stärker
automatisiert und für
immer mehr Krankheiten
zur Routine werden. Wenn
dabei die Veranlagung für
ein Leiden erkannt wird,
das noch nicht therapiert
werden kann, können für
den Patienten schwierige Situationen entstehen. Auch
die pränatale Diagnostik kann Entscheidungen erforderlich machen, die früher gar nicht möglich und daher
auch nicht nötig waren. Mit diesen neuen Entscheidungsoptionen muss daher sehr bedacht umgegangen
werden, damit sie nicht zu Zwängen werden.
Die Vorteile der diagnostischen Möglichkeiten
liegen andererseits auf der Hand. Die Disposition für
eine bestimmte Krankheit zu kennen, erlaubt es dem
Betroffenen, sich entsprechend dem neuesten Kenntnisstand zu verhalten. Selbst dort, wo Therapien noch
nicht möglich sind, kann das von Vorteil sein. Man
muss sich auch bewusst machen, dass zumindest in
den Familien, die mit Erbkrankheiten belastet sind,
meist schon das Wissen um eine Anfälligkeit für diese
Krankheit vorhanden ist. Eine DNA-Diagnose kann hier
latente Besorgnis sowohl zu entlastender wie depri-
Biotechnologie und Gesellschaft
mierender Gewissheit machen. Im ersteren Fall werden die Untersuchten erheblich an Lebensqualität
gewinnen. Im anderen Fall, wenn der Test eine angenommene Disposition bestätigt, ist das Ergreifen von –
zum Teil sehr schwerwiegenden – präventiven Maßnahmen nun zumindest klar begründet. Diese müssen
nicht mehr auf Verdacht eingeleitet werden.
Auswirkungen der neuen diagnostischen Möglichkeiten auf das Verhältnis von Versicherten zu Kranken- oder Lebensversicherern, auf die Einstellungsuntersuchungen von Arbeitnehmern bis hin zur Wahl des
Ehepartners werden gleichfalls intensiv diskutiert. Es
bleibt zu klären, in welchem Maß die neuen Möglichkeiten hier einbezogen werden können und sollen.
Nicht zuletzt wird man die neuen diagnostischen
Verfahren auch nutzen, um die Wirkung eines bestimmten Therapeutikums auf einen Patienten vorherzusagen. Hier spielt u.a. die Ausprägung bestimmter enzymatischer Aktivitäten in unterschiedlichen Individuen
eine Rolle. Von diesen Kenntnissen wird auch bei der
Austestung neuer Medikamente Gebrauch gemacht, so
dass es in Zukunft vielleicht insgesamt mehr Zulassungen für Medikamente geben wird, die sich dann jeweils
an kleinere Patientenkollektive wenden. Dies hat damit
zu tun, das man schon die Austestung eines Medikaments auf einen Patientenkreis konzentrieren kann, der
wegen seiner genetischen Ausstattung auf den Wirkstoff gut anspricht und nur geringe Nebenwirkungen
zeigt. Daraus könnte sich eine neue Aufteilung des
Pharmamarkts mit Rückwirkungen bis hin zur Neuausrichtung der Pharmaindustrie ergeben.
Von Entwicklungen im medizinischen Bereich
sind wir alle besonders betroffen. Die neuen Möglichkeiten haben in der Vergangenheit daher immer wieder
für Diskussionen gesorgt und werden das wohl auch in
Zukunft tun. Wir werden uns neuen Herausforderungen in Wissenschaft und Politik immer wieder stellen
müssen. Die Mechanismen und Foren, die in der Vergangenheit den gesellschaftlichen Dialog getragen
haben, werden in Zukunft vielleicht eine noch größere
Bedeutung gewinnen.
BMBF-Aktivitäten
Mit bioethischen Fragen haben sich in den vergangenen Jahren zahlreiche Gremien und Institutionen
beschäftigt. Im Mittelpunkt der Betrachtung standen
Fragen der Humangenomforschung. Innerhalb der För-
derung der Humangenomforschung hat das BMBF den
ethischen, rechtlichen und sozialwissenschaftlichen
Fragestellungen besondere Betrachtung geschenkt.
Zusammen mit der Deutschen Forschungsgemeinschaft (DFG) hat das Ministerium eine neue Initiative
gestartet. Ziel ist es, die praktische Ethik in der Wissenschaftslandschaft zu stärken. Der Dialog zwischen
Wissenschaft, Politik und Öffentlichkeit soll versachlicht, die Zusammenarbeit der Forscher gefördert werden – über die Grenzen einzelner Disziplinen hinweg.
Neben dem Aufbau eines Referenzzentrums zur Dokumentation und Sammlung von Informationen auf dem
Gebiet der Ethik in den Biowissenschaften durch das
BMBF, stellt die DFG Mittel für Forschungsprojekte auf
diesem Gebiet zur Verfügung.
Die möglichen Anwendungen der Biotechnologie in der Landwirtschaft sind zahlreich. Es wird nüchtern zu prüfen sein, ob sich die Vorteile, die in den
neuen Varietäten gesehen werden, auch wirklich ergeben. Eine Reduzierung der Aufwandmengen an Herbiziden und Insektiziden in der Landwirtschaft ist seit
vielen Jahren – und nicht zu Unrecht – gefordert worden. Pflanzen, mit denen unter Beibehaltung der Erträge einer solchen Forderung entsprochen werden kann,
sind daher schon lange das Ziel klassischer Züchtungsversuche. Wenn solche Pflanzen jetzt verfügbar sind
und keine anderweitigen Nachteile haben, spricht
nichts gegen einen umsichtigen Einsatz. Sie könnten
uns einem lange angestrebten Ziel ein gutes Stück
näher bringen. Verminderte Aufwandmengen an Herbiziden und Insektiziden sind ja nach wie vor ökologisch begrüßenswert.
Durch die neuen Methoden werden zahlreiche
andere Pflanzen mit verbesserten Eigenschaften vorstellbar. Dazu gehören solche mit veränderten Inhaltsstoffen, von denen Ansprüche der menschlichen und
tierischen Ernährung besser erfüllt oder die an technische Erfordernisse optimal angepasst werden können.
Eine entsprechende Unbedenklichkeit vorausgesetzt,
werden solche Produkte zunehmend ihren Weg in den
Markt finden. Die letzten Jahre haben allerdings
gezeigt, dass man dies nicht erzwingen kann. Vielmehr
wird das nur im offenen Dialog mit dem Verbraucher
und durch eine entsprechende Bewerbung der Produkte möglich sein.
Der Einsatz gentechnisch veränderter Pflanzen
in der Landwirtschaft ist notwendigerweise mit einer
Freisetzung verknüpft. Solche Freisetzungen müssen
weiterhin sorgfältig begleitet und kontrolliert werden.
69
Biotechnologie und Gesellschaft
Aus den weltweit gewonnenen Erkenntnissen sollten
sich aber zuverlässige Regeln für einen verantwortlichen Umgang mit diesen Pflanzen ableiten lassen.
Die Biotechnologie hat in der 2. Hälfte des
20. Jahrhunderts einen großen Sprung nach vorn
gemacht. Die Fülle des Wissens, die sie uns beschert
hat, ist enorm. Wir können es nutzen, um bestehende
Produktionsprozesse ökonomisch und ökologisch zu
verbessern. Immer mehr neue Anwendungen werden
in Medizin, Landwirtschaft und vielen anderen Bereichen vorstellbar. Diese können dazu beitragen, unsere
Lebensqualität weiter zu steigern. Eine neue Branche
hat sich geformt und bietet Arbeitsplätze mit Anforderungsprofilen, auf die sich unser Ausbildungssystem
flexibel einstellen muss. Das BMBF hat die Entwicklung der Biotechnologie in Deutschland mitgestaltet
und gefördert. Es wird diese Entwicklung auch in
Zukunft intensiv begleiten und dabei mitwirken, dass
die vielen Möglichkeiten, die sich uns bieten, verantwortlich genutzt werden.
70
Glossar
Glossar
Aminosäuren
Organische Verbindungen, die als charakteristisches Merkmal sowohl eine Aminogruppe als auch eine Carboxylgruppe besitzen. Die 20 sogenannten „natürlichen“ Aminosäuren werden an den Ribosomen einer Zelle gemäß
dem Bauplan der DNA zusammengehängt und bilden die Proteine.
Antibiotika
Niedermolekulare Substanzen, die hauptsächlich von Mikroorganismen produziert werden und das Wachstum
anderer Mikroorganismen hemmen können.
Antigene
Fremdstoffe, die das Immunsystem zur Produktion von Antikörpern anregen.
Antikörper
sind von weissen Blutkörperchen erzeugte Proteine, die zur Abwehr eingedrungener Fremdstoffe dienen.
Bakterien
Einzellige Mikroorganismen ohne Zellkern. Sie eignen sich sehr gut für biotechnische Produktionsverfahren, da
sie in billigen Nährlösungen schnell vermehrt werden können.
Basen
Allg. Gegenspieler von „Säuren“, mit denen sie sich zu „Salzen“ neutralisieren. In der Molekulargenetik sind
„Basen“ die übliche Bezeichnung für die basischen Bestandteile der Nukleotide, den Untereinheiten von DNA und
RNA. Die genetische Information wird durch die vier DNA-Basen Adenin (A), Cytosin (C), Thymin (T) und Guanin
(G) codiert (s. Struktur der DNA ).
Basenpaar
Die beiden Basen Adenin und Thymin sowie die beiden Basen Cytosin und Guanin bilden in einem DNA-Doppelstrang jeweils Paare aus, die durch schwache Bindungen zusammengehalten werden. Die Summe dieser Bindungen ist für den Zusammenhalt der beiden DNA-Stränge verantwortlich. Etwas missverständlich wird der Begriff
Basenpaar auch für zwei komplementäre Nukleotide gebraucht. Die Aussage, dass die menschliche DNA aus 3
Milliarden Basenpaaren besteht, bedeutet genauer, dass sie aus rund 6 Milliarden Nukleotiden aufgebaut ist.
cDNA
entsteht durch die Synthese von DNA an mRNA, also einem Prozess, der umgekehrt läuft wie die normalerweise
stattfindende Synthese von mRNA an DNA (Transkription). Während die Gene höherer Organismen meist Einschübe (Introns) enthalten, sind diese Einschübe in der cDNA nicht mehr vorhanden. Sie werden beim Entstehen
der mRNA aus dieser entfernt.
71
Glossar
Chimäre
ein Organismus, der aus Zellen verschiedener Tiere bzw. Pflanzen besteht.
Chromosom
(gr. Farbkörper, weil mit spez. Farbstoffen anfärbbar) Sehr langes DNA-Molekül, das viele Gene enthält. Die DNA
ist an eine Vielzahl unterschiedlicher Proteine gebunden und dadurch geschützt. Alle Zellen einer Tier- oder Pflanzenart (mit Ausnahme der Keimzellen) enthalten denselben charakteristischen Satz von C. Auch das grosse DNAMolekül der Bakterien wird als C. bezeichnet.
Cytokine
Oberbegriff für zahlreiche körpereigene Substanzen, die von Zellen des Immunsystems während der Immunantwort freigesetzt werden. Sie sind wichtig für Reparaturmechanismen von Gewebeschäden und stimulieren spezifisch das Wachstum von Zellen. Zu den Cytokinen gehören u.a. Interleukine (IL), Interferone und die Wachstumsfaktoren GM-CSF und G-CSF (s. Kap. 7).
Desoxyribonukleinsäure; DNA/DNS
(engl. deoxyribonucleic acid, deutsch Desoxy-Ribonukleinsäure). Die Erbsubstanz aller Organismen – von einigen
Viren abgesehen, bei denen die Erbinformation in der RNA gespeichert ist. Die DNA besteht aus linear verknüpften Nukleotiden, deren Abfolge die Erbinformation bildet.
Differenzierung
In höheren Organismen sind unterschiedliche Typen von Zellen vorhanden, die spezialisierte Funktionen erfüllen.
Eine Hautzelle des Menschen muss andere Aufgaben erledigen als eine Leberzelle. Der Prozess, der spezialisierte Zellen entstehen lässt, wird als Differenzierung bezeichnet. In höheren Organismen entstehen alle Zelltypen
durch Teilung und Differenzierung aus der befruchteten Eizelle.
Doppelhelix
Zwei schraubenförmig umeinander gewundene DNA-Stränge (s. Struktur der DNA )
Enzyme
Proteine, die chemische Reaktionen beschleunigen (Biokatalysatoren).
Eukaryonten
Zellen mit echtem Zellkern
Fluoreszenzfarbstoff
Farbstoff, der bei Bestrahlung mit kurzwelligem UV-Licht Licht im sichtbaren Wellenlängenbereich aussendet.
Gen
Grundeinheit der Erbinformation. Ein G. besteht aus einem DNA-Abschnitt, der die Information zur Synthese einer
RNA enthält. In einigen Fällen ist die RNA selbst das Endprodukt. Meist dient sie aber dem Transport der genetischen Information zu den Ribosomen, wo dann Proteine gebildet werden.
Genbank
Sammlung von klonierten Genfragmenten.
Genexpression
Ablesen der in den Genen enthaltenen Informationen in mRNA, meistens zur Umsetzung in Proteine.
72
Glossar
Genetischer Code
Stellt die Beziehung zwischen der Nukleotid-Abfolge in einem Gen und der Aminosäure-Abfolge in einem Protein
her.
Genom (Genotyp)
Summe der Erbanlagen eines Organismus.
Gentechnik
Verfahren zur gezielten Veränderung des Erbguts von Organismen.
Gentherapie
Versuch der Heilung von Krankheiten z.B. durch das Einführen intakter Gene in die „kranken“ Zellen. Man unterscheidet beim Menschen die erlaubte (nicht auf die Nachkommen vererbbare) Somatische Gentherapie an Körperzellen von der verbotenen Keimbahntherapie (auf die Nachkommen vererbbar) an den Keimzellen.
Hybridisierung
Doppelstrangbildung von komplementären einzelsträngigen DNA- und/oder auch RNA-Molekülen.
Immunologie
Wissenschaft, die sich u.a. mit den Abwehrreaktionen von Mensch und Tier gegen Organismen wie Bakterien,
Pilze und Viren, aber auch mit Abwehrreaktionen gegen fremde Zellen und Gewebe bzw. gegen eigene Zellen und
Gewebe beschäftigt (Autoimmunreaktionen).
Insertieren
Einfügen von DNA-Abschnitten in ein anderes DNA-Molekül.
in vitro
lat. im (Reagenz-)Glas
in vivo
lat. im Lebewesen, im Körper
Karyogramm
Mikroskopisches Bild aller im Zellkern enthaltenen Chromosomen, meistens nach Grössen sortiert dargestellt.
Katalysator
Reaktionsbeschleuniger
Keimbahn
Organe und Zellen des Körpers, die der Vererbung dienen.
Klonen
Erzeugen von Zellen oder ganzen Organismen, die genotypisch gleich sind. Die ursprüngliche Zelle stammt z.B.
aus einem frühen Embryonalstadium.
Klonieren
Erzeugen von Zellen, die gentechnisch verändertes Erbgut enthalten.
73
Glossar
Liganden
Häufig relativ kleine Moleküle, die genau in die Bindungstasche von Rezeptoren passen. So wie nur ein ganz
bestimmter Schlüssel in ein Schloss passt, können nur genau definierte Liganden mit ihren jeweiligen Rezeptoren in Wechselwirkung treten.
Lymphozyten
Bestimmte Klasse von weissen Blutkörperchen, die von entscheidender Bedeutung für das Immunsystem sind.
messenger-RNA, mRNA
Entsteht im Prozess der Transkription aus der DNA und enthält die Information zur Synthese eines Proteins.
Metastase
Bei Krebs eine Tochtergeschwulst durch Wachstum von Zellen, die sich vom Primärtumor abgelöst haben. Eine
Metastase kann weit entfernt vom Primärtumor und in völlig anderen Geweben entstehen.
Monoklonale Antikörper
Strukturell identische Antikörper, die daher auch über die exakt gleiche Bindungsstelle für ein Antigen verfügen.
Multipotenz, multipotent
Eigenschaft von gewebetypischen Stammzellen, sich in unterschiedliche Zelltypen eines Organs (z.B. des Bluts)
entwickeln zu können.
Mutation
Veränderung des Erbmoleküls DNA dergestalt, dass sich Veränderungen in der Abfolge der Nukleotide ergeben.
Mutagenese
Erzeugung von Mutationen. M. können u.a. durch UV- Licht oder andere Strahlung und zahlreiche Chemikalien
ausgelöst werden.
Nukleotid
Grundbaustein der DNA. Ein Nukleotid besteht aus einer Zuckereinheit, die mit einer Base verbunden ist. An den
Zuckereinheiten werden die Nukleotide durch Phosphatreste zu den DNA-Ketten (DNA-Einzelsträngen, s. Struktur der DNA) verbunden.
Oligonukleotid
(oligo, gr. wenig, gering) Abfolge von einigen wenigen bis zu vielen Hundert, miteinander verknüpften, Nukleotiden. Ein Oligonukleotid entspricht damit einem (sehr) kurzen DNA-Einzelstrang.
Omnipotenz, omnipotent
s. Totipotenz
pathogen
Krankheiten auslösend, krankmachend.
PCR
engl. polymerase chain reaction/Verfahren zur Vermehrung von DNA in vitro.
74
Glossar
Penicillin
Naturstoff, der von verschiedenen Pilzen, u.a. Penicillium chrysogenum, gebildet wird. Penicillin gehört zur Gruppe der ß-Lactam Antibiotika und stört die Synthese der Zellwand von Bakterien, wodurch diese letztlich
abgetötet werden.
Phänotyp
Erscheinungsbild eines Organismus durch Ausprägung der Erbanlagen.
Phage
Abkürzung für Bakteriophage. P. sind Viren, die Bakterien befallen.
Plasmide
Ringe aus DNA-Doppelsträngen, die hauptsächlich in Bakterien vorkommen. Sie werden unabhängig vom Chromosom vermehrt und können in der Gentechnik bei der Klonierung fremder DNA von Nutzen sein.
Pluripotent, Pluripotenz
Potenzial von embryonalen Stammzellen, in Zellen verschiedener Gewebetypen ausreifen (differenzieren) zu können.
Prokaryonten
Zellen ohne Zellkern, z.B. Bakterien.
Proteine
Werden im Deutschen auch als Eiweisse bezeichnet. Sehr vielseitige Werkzeuge und Bausteine der Zellen, die
viele Funktionen haben können, z.B. als Enzyme. P. bestehen aus Ketten von Aminosäuren. Teils sind mehrere Ketten von Aminosäuren zusammengelagert und ergeben erst dadurch das fertige Protein.
Protoplasten
Zellen ohne Zellwände.
Rekombination
Kombination von DNA unterschiedlicher Herkunft. Im klassischen Sinn bezieht sich R. auf den Austausch von
Erbinformation zwischen eng verwandten DNA-Molekülen, z.B. einem väterlichen und einem mütterlichen Chromosom. Im Zusammenhang mit der Gentechnik bezeichnet R. ganz allgemein die Kombination von DNAMolekülen aus unterschiedlichen Quellen.
Restriktionsenzyme
Enzyme, die bestimmte Sequenzen der DNA erkennen und die DNA spezifisch schneiden können.
Restriktionsschnittstelle
DNA-Sequenz, die von einem Restriktionsenzym gespalten wird.
Rezeptoren
Moleküle, die u.a. auf Zelloberflächen anzutreffen sind. Sie sind in der Lage, ein genau definiertes Molekül zu binden, ihren Liganden. Das Zusammentreffen von Ligand und Rezeptor kann hochspezifisch eine Abfolge von Reaktionen innerhalb der Zelle in Gang setzen.
75
Glossar
RNA
Entsteht durch Transkription der DNA und enthält die Information zur Synthese eines Proteins (s. messenger-RNA)
oder übt andere Funktionen aus (rRNA ist Bestandteil der Ribosomen, tRNA transportiert Aminosäuren zu den
Ribosomen). RNA unterscheidet sich von der DNA durch das Vorhandensein einer anderen Zuckereinheit und die
Verwendung der Base Uracil anstelle von Thymin.
Ribosomen
Komplexe Strukturen in Zellen, an denen die Synthese von Proteinen abläuft. Die als mRNA vorliegende genetische Information wird am Ribosom Triplett für Triplett in eine Abfolge von Aminosäuren innerhalb einer Proteinkette übersetzt.
Selektion
Auswahl von Organismen, die einen bestimmten Phänotyp aufweisen.
Sequenzanalyse
Ermittelt die Abfolge der Nukleotide innerhalb der DNA bzw. die Abfolge der Aminosäuren innerhalb von Proteinen.
Somatische Gentherapie
Gentherapie an Zellen des Körpers, ausser den Keimzellen. Die Veränderungen können daher nicht vererbt werden.
Totipotent, Totipotenz
Eigenschaft früher Embryonalzellen (meistens bis zum 8-Zellstadium) sich auch nach Abtrennung vom Embryo zu
einem kompletten Organismus entwickeln zu können.
Transformation
Einführen fremder DNA in eine Zelle.
transgen
Als transgen werden höhere Organismen bezeichnet, die fremdes Erbgut tragen.
Transkription
Umschreiben der DNA in RNA. Wichtigstes Enzym hierfür ist die RNA-Polymerase.
Translation
Übersetzung der mRNA in Proteine.
Triplett
Abfolge von 3 Nukleotiden innerhalb der DNA. Einem Triplett in der DNA ist nach den Regeln des genetischen
Codes eine definierte Aminosäure in einem Protein zugeordnet.
Vakzin
Impfstoff
Vektor
DNA-Molekül (z.B. ein Plasmid), das in Zellen eingeschleust werden kann und von den Wirtszellen bei Teilung
meist an die Tochterzellen weitergegeben wird. Vektoren werden für die Übertragung von fremden DNAAbschnitten benutzt.
76
Glossar
Virus
Viren können in bestimmte Zellen eindringen und ihr Erbgut (d.h. die DNA bzw. RNA) einschleusen. Das Erbgut der
Viren kann ins Genom der Zelle integriert werden (immer als DNA) und lange Zeit ohne Wirkung bleiben. Wird es
aktiv, kommt es zur Produktion neuer Viren und meist zum Tod der Wirtszelle.
Wasserstoff-Brückenbindung
Sehr schwache Anziehungskraft zwischen kleinsten elektrischen Ladungen in der Elektronenhülle von Atomen.
Wasserstoffatome, die an ein Atom eines stark elektronegativen Elements (Fluor, Sauerstoff, Stickstoff) gebunden sind, tragen eine positive Teilladung. Dadurch wirken sie auf Atome elektronegativer Elemente in benachbarten Molekülen elektrostatisch anziehend.
Wirtszelle, Wirtsorganismus
Zelle, die eingeschleuste Viren oder Plasmide vermehrt und/oder gewünschte Produkte herstellt.
Zellkern
Unter dem Mikroskop erkennbare Struktur in höher entwickelten Zellen (Eukaryonten), die mit einer Membran das
Erbmaterial umschliesst.
Zytostatika
Substanzen, die teilungsaktive eukaroyntische Zellen – also auch menschliche Zellen – töten. Z. werden zur
Behandlung von Krebserkrankungen eingesetzt.
77
Bundesministerium
für Bildung
und Forschung
7. Biotechnologie und
Markt
Ausgewählte Produkte der Biotechnologie
Übersicht ausgewählter biotechnischer Produkte:
Produkte in Medizin und Pharma ...............................................................................S. 79
Blutgerinnung ........................................................................................................S. 90
BMBF PUBLIK
Monoklonale Antikörper........................................................................................S. 94
Impfstoffe................................................................................................................S. 97
Diagnostik ...............................................................................................................S. 99
Produkte in der Landwirtschaft................................................................................S. 102
Technische Enzyme ...................................................................................................S. 105
78
Biotechnologie und Markt
Ausgewählte Produkte
Es würde weit über das Anliegen dieser Broschüre hinausgehen, wollte man sämtliche Produkte auflisten,
die mit den modernen Methoden der Biotechnologie
hergestellt werden. Nachfolgend sollen aber wenigstens die besonders wichtigen Produkte genannt und
Wirkstoffgruppen oder Produkte, die auf einem
gemeinsamen Wirkprinzip beruhen, zusammenfassend erwähnt werden. Die vorgestellten Produkte
kommen größtenteils aus dem Bereich der Pharmazie
und Medizin.
Zur Erläuterung der Wirkweise von Pharmazeutika
wurden in den „Produktteil“ dieser Broschüre auch
einige Grafiken aufgenommen und die wichtigsten
Regelkreise, an denen die modernen Therapeutika
ansetzen, werden kurz erklärt.
Die Zulassung neuer Medikamente erfolgt in unterschiedlichen Ländern zu unterschiedlichen Zeiten und
nach unterschiedlichen Prüfverfahren. Die Broschüre
listet nur solche Medikamente, die mindestens in
Europa und/oder den USA eine Zulassung haben. Es
kann deshalb sein, dass einige der aufgeführten Produkte in Deutschland noch nicht auf dem Markt sind.
Spezielle Handelsnamen für pharmazeutische Wirkstoffe, die sich von Land zu Land unterscheiden können, finden keine Berücksichtigung. Nachfolgend werden die Produkte nach der wissenschaftlichen
Bezeichnung des Wirkstoffs oder der Wirkstoffgruppe
alphabetisch aufgeführt. Sind die Wirkstoffe nicht eindeutig zu benennen, wie etwa im Falle hybrider Proteine, dann werden die pharmazeutischen Namen der
Produkte verwendet.
den weiteren Anwendungen können nur exemplarische Entwicklungen vorgestellt und Produktgruppen
summarisch beschrieben werden. Auf die Diskussion
um den Nutzen der unterschiedlichen Entwicklungen
wird an anderer Stelle in dieser Broschüre kurz eingegangen.
Produkte in
Medizin und Pharma
Einen erheblichen Fortschritt haben die neuen Möglichkeiten der Biotechnologie für die Medizin bedeutet. Insbesondere dank der Gentechnik und dank neuer
zellbiologischer Methoden konnten Herstellungsverfahren verbessert oder völlig neue Therapeutika produziert werden. Damit wurde die Produktsicherheit
sowohl mit Blick auf die Verfügbarkeit als auch mit
Blick auf die Reinheit gesteigert. Viele der heute verwendeten Medikamente sind überhaupt nur mittels
biotechnischer Verfahren zugänglich. Darüber hinaus
ist die Biotechnologie bei der Erforschung neuer Medikamente ein unverzichtbares Werkzeug geworden, da
sie Krankheitsursachen zu identifizieren und entsprechende Testmodelle zu entwickeln hilft. Die Fachleute
gehen schon heute davon aus, dass alle neu in den
Markt eingeführten Wirkstoffe in irgendeiner Phase
ihrer Entwicklung auf die Methoden der Biotechnologie angewiesen waren.
Nachfolgend werden die wichtigsten biotechnisch
hergestellten Wirkstoffe aufgeführt. Die Produkte
wurden teilweise in Gruppen wie beispielsweise den
Monoklonalen Antikörpern zusammengefasst und diesen Gruppen eine kurze allgemeine Einführung vorangestellt.
Becaplermin
Die Darstellung therapeutischer Maßnahmen kann
hier nur äußerst grob erfolgen. Es sei daher an dieser
Stelle erwähnt, dass viele der vorgestellten Medikamente nicht als alleinige Therapeutika gegen eine
bestimmte Krankheit eingesetzt werden, sondern oft
in Kombination mit anderen. Auch können nicht sämtliche Einsatzgebiete für alle der genannten Produkte
erwähnt werden, sondern nur die hauptsächlichen.
Der Produktteil ist in „rote“ und „grüne“ Biotechnologie sowie in „weitere Anwendungen“ untergliedert.
Auch im Bereich der grünen Biotechnologie und bei
Bei Becaplermin handelt es sich um einen rekombinant
hergestellten Wachstumsfaktor (rhPDGF), der normalerweise von den Platelet-Zellen des Blutes gebildet
wird. Die Platelet-Zellen haben die wichtige Aufgabe,
auf bestimmte Signale hin die Blutgerinnung zu aktivieren. Ein solches Signal kann beispielsweise eine
geschädigte Gefäßoberfläche sein. Dann kommt den
Platelet-Zellen auch die Aufgabe zu, an der Behebung
dieser Schäden mitzuwirken. Die Wirkung von Becaplermin besteht nun darin, solche Zellen chemotaktisch
anzuziehen und zur Proliferation anzuregen, die dann
79
Biotechnologie und Markt
ebenfalls an den Reparaturarbeiten beteiligt sind. Das
rekombinante Becaplermin findet daher als aktiver
Bestandteil einer Wundsalbe Verwendung. Diese wird
bei der Behandlung von Geschwüren eingesetzt, die
besonders häufig an den Beinen von Diabetespatienten auftreten. Das Becaplermin hilft, die Wundheilung
zu beschleunigen.
Becaplermin wird nach gentechnischer Veränderung
von der Bäckerhefe Saccharomyces cerevisiae gebildet. Das Protein ist ein Homodimer, besteht also aus
zwei identischen Ketten. Die beiden jeweils 109 Aminosäuren langen Ketten sind über Disulfidbrücken
kovalent miteinander verbunden.
Toxins (Met1-Thr378)-His- sind mit dem Interleukin-2Anteil (Ala1-Thr133) verbunden. Das Fusionsprotein
hat eine Größe von 58 kD.
Erythropoietin
Bei Patienten mit Nierenschädigung kommt es häufig
zur Anämie, das Blut enthält also zu wenig rote Blutkörperchen. Diese entstehen aus Stammzellen des
Knochenmarks. Die Bildung der roten Blutkörperchen,
der Erythrocyten, wird von einem spezifischen Wachstumsfaktor angeregt, der in den Nieren produziert
wird. Von dort aus gelangt dieser Wachstumsfaktor –
Erythropoietin oder kurz EPO genannt – über den Blutkreislauf zu seinem Zielort.
Denileukin Diftitox
Für Dialysepatienten
bedeuten moderne
Wirkstoffe eine Verbesserung der
Lebensqualität.
Bei diesem zu Beginn des Jahres 2000 nur in den USA
erhältlichen Produkt handelt es sich um ein Fusionsprotein, das einen Teil des Diphterie-Toxins mit einem
Interleukin-2-Molekül verbindet. Denileukin ist damit
ein Produkt der so genannten zweiten Generation, da
es in der Natur nicht vorkommt. Von Produkten der
ersten Generation spricht man, wenn mit biotechnischen Verfahren Stoffe hergestellt werden, die auch in
der Natur vorhanden sind oder sich von diesen nur
geringfügig unterscheiden. Denileukin richtet sich
gegen eine bestimmte Form der T-ZellLeukämie, bei
der die malignen, also bösartigen Zellen der Patienten
eine große Menge von Interleukin-2-Rezeptoren auf
ihrer Oberfläche tragen. Das Prinzip ist dann recht
elegant. Die Interleukin-2-Rezeptoren auf den bösartigen Zellen binden das Fusionsprotein über dessen
Interleukin-2-Anteil und werden dann von der aus
dem Diphterie-Toxin stammenden Komponente abgetötet.
Das Fusionsprotein wurde in den USA nach einem
beschleunigten Verfahren zugelassen und seine Wirkung auf die betroffenen Patienten wird weiter intensiv überwacht. Eingesetzt wird es dort, wo andere Therapieformen, z.B. die Gabe von Interferon, versagen.
Die Anwendung des Medikaments ist für die Patienten
allerdings mit erheblichen Nebenwirkungen verknüpft.
Die Verabreichung kann daher nur unter strenger ärztlicher Aufsicht erfolgen.
Das Fusionsprotein wird in Escherichia coli Bakterien
hergestellt. Die Fragmente A und B des Diphterie-
80
Wenn die geschädigten Nieren zu wenig EPO produzieren, dann gehen aus den Stammzellen des Knochenmarks zu wenig Erythrocyten hervor. Wegen der verringerten Zahl von Erythrocyten, die für den Sauerstofftransport verantwortlich sind, fühlen sich die Patienten ständig schwach und müde. Dies beeinträchtigt die
kranken Menschen, die durch eine meistens erforderliche Dialyse ohnehin erheblich belastet sind, noch
zusätzlich. Abhilfe konnten hier bislang nur Bluttransfusionen schaffen.
Die Verabreichung von EPO zur Stimulierung der
Erythrocytenbildung stellt daher eine merkliche
Erleichterung für die Patienten dar. Die Isolierung von
EPO aus der natürlichen Quelle ist für therapeutische
Anwendungen aber unmöglich. EPO ist im menschlichen Körper nur in geringsten Spuren enthalten. Daher
bieten gentechnische Methoden die einzige Möglichkeit, diesen Stoff in größeren Mengen zu produzieren.
Biotechnologie und Markt
Tatsächlich ist es gelungen, die genetische Information für EPO zu isolieren und das Protein herzustellen.
Das EPO gehört zur Gruppe der Glykoproteine. Bei diesen Proteinen sind bestimmte Aminosäuren noch mit
Kohlenhydraten, also Zuckerresten, verknüpft. Im Falle
von EPO ist diese Verknüpfung mit Kohlenhydraten für
die Wirkung unbedingt erforderlich. Die üblichen
Arbeitspferde der Genetiker, die Bakterien, können
eine solche Verknüpfung aber nicht herstellen. Für die
Produktion von EPO muss man daher auf Kulturen von
gentechnisch veränderten tierischen oder menschlichen Zellen ausweichen. Diese Verfahren sind zwar
aufwendiger, werden aber heute ebenso beherrscht
wie die Fermentation von rekombinanten Bakterien
und Hefen.
Das Anwendungsgebiet für EPO hat sich seit seiner
Einführung bei Patienten mit schwerer Nierenschädigung stark erweitert. Prinzipiell kann das Medikament
überall dort helfen, wo eine chronische Anämie die
Patienten belastet. Dies gilt bei Chemotherapien, bei
Knochenmarktransplantationen und bei HIV-Infektionen, um nur einige weitere Anwendungen zu nennen.
Auch bei der Anämie von Frühgeborenen oder bei der
Vorbereitung einer Eigenblutspende kann EPO eingesetzt werden. Durch diese Erweiterung der Indikation
hat sich auch die Zahl der Menschen stark erhöht,
denen mit EPO geholfen werden kann.
Durch Anwendung gentechnischer Verfahren ist EPO
erstmals für therapeutische Zwecke verfügbar geworden. Heute rangiert dieses Therapeutikum unter den
zehn weltweit erfolgreichsten Medikamenten überhaupt und fällt in die Kategorie der so genannten
Blockbuster, das sind Medikamente, die mehr als eine
Milliarde US-$ Umsatz im Jahr erzielen. Ende 1999
wurde EPO in den USA auch zur Behandlung von Kindern mit renaler Anämie, einer in dieser Altersgruppe
seltenen Krankheit, zugelassen. EPO gehört zu den
gentechnisch gewonnenen Therapeutika, die auch in
Deutschland hergestellt werden.
Das Medikament EPO hat in einem Bereich Aufsehen
erregt, für den diese Entwicklung eigentlich nicht
gedacht war – im Hochleistungssport. Denn auch im
gesunden Menschen kann die vermehrte Bildung von
Erythrocyten aufgrund des verbesserten Sauerstofftransports zu einer Leistungssteigerung führen. Das
früher häufig angewendete Verfahren, Erythrocyten
durch Höhentraining im Blut anzureichern, das derart
angereicherte Blut zu konservieren und dem Athleten
vor einem Wettkampf wieder zuzuführen, wird dadurch
auf simple Weise imitiert. Diese Art des Dopings hat,
vor allem im Rennsport, in den schlimmsten Fällen zum
Tod der Athleten geführt. Ein Missbrauch von EPO ist
schwer zu erkennen, da es ja ohnehin im Körper vorkommt. Es müssen daher andere Blutwerte gemessen
werden, die nur indirekt einen Hinweis auf die Verwendung von EPO geben. Es ist zu hoffen, dass diesem
Missbrauch wirkungsvoll Einhalt geboten werden kann.
Etanercept
Bei Etanercept handelt es sich wie schon beim Denileukin um ein echtes Kunstprodukt. Bestimmte Genabschnitte für zwei unterschiedliche Proteine wurden
gentechnisch miteinander fusioniert. Dies führt zu
einem hybriden Produkt, das sich aus Anteilen von
zwei normalerweise völlig unabhängigen Proteinen
zusammensetzt. Ein Anteil entspricht dabei der konstanten Domäne eines bestimmten Antikörpers mit
Namen IgG1. Der andere Anteil entspricht der Domäne
eines Rezeptors, der mit dieser Domäne den TumorNecrose-Faktor (TNF) bindet. Auf diese Domäne
kommt es dabei besonders an.
Der Tumor-Necrose-Faktor gehört in die Gruppe der
Cytokine und spielt eine wichtige Rolle bei entzündlichen Prozessen im Körper. Dazu bindet der TNF an seinen Rezeptor, der in die Membran von Empfängerzellen eingebettet ist. Diese Bindung löst dann eine Kaskade von Reaktionen aus (siehe Seite 19). Der TNF
kann nun aber nicht erkennen, ob die Bindedomäne
seines Rezeptors in die Membran einer Zelle eingebettet oder – wie im Falle von Etanercept – lediglich mit
der konstanten Region eines Antikörpers verbunden
ist. Daher bindet der TNF an das Kunstprodukt Etanercept und wird dadurch unwirksam. Etanercept moduliert daher entzündliche Prozesse und kann beispielsweise bei bestimmten Formen der Rheumatoiden
Arthritis erfolgreich eingesetzt werden. Bei der Rheumatoiden Arthritis handelt es sich um eine Autoimmunkrankheit, d.h. die Immunabwehr richtet sich
gegen körpereigene Zellen und zerstört diese. Weil der
TNF diesen fehlgeleiteten Prozess noch stimuliert,
kann Etanercept durch Absenkung der wirksamen Konzentration an TNF eine positive Wirkung entfalten. Da
das TNF im Körper andererseits aber viele wichtige
81
Biotechnologie und Markt
Funktionen erfüllt und seine effektive Konzentration
durch Etanercept nun herabgesetzt wird, muss die
Anwendung sehr sorgfältig kontrolliert werden.
Strengste Kontraindikation ist eine Infektionserkrankung des Patienten.
Das hybride Protein Etanercept besteht aus 934 Aminosäuren und wird in Hamsterzellen (CHO-Zellen) hergestellt. Es ist ein Dimer aus zwei identischen Ketten,
das zwei TNF Moleküle binden kann.
Follikelstimulierendes Hormon
(FSH, Follitropin alpha)
Nach Angaben der Weltgesundheitsorganisation
(WHO) leiden rund 8–10 % der Ehepaare an irgendeiner Form von Unfruchtbarkeit. Demnach sind in der
Welt rund 50–80 Millionen Menschen von Unfruchtbarkeit betroffen. In rund 30–40 % der Fälle ist die
Unfruchtbarkeit eindeutig der Frau zuzuordnen, in
10–30 % der Fälle eindeutig dem Mann. In 15–30 %
sind beide Partner unfruchtbar, in 5–10 % bleibt der
Grund für die Unfruchtbarkeit unklar. Der häufigste
Grund für Unfruchtbarkeit bei Frauen ist eine Störung
der Ovulation, also des Eisprungs. Hier muss die Eizelle den Follikel verlassen, in dem sie herangereift ist.
Störungen dieses Prozesses werden oft durch eine zu
geringe Menge des Hormons „Follikelstimulierendes
Hormon“ (FSH) hervorgerufen. Zur Induktion einer Ovulation wird FSH daher ebenso eingesetzt wie bei der
Vorbereitung auf eine In-vitro-Fertilisation, wo mehrere Eizellen reifen sollen.
Bei Männern ist eine Unfruchtbarkeit am häufigsten
auf Probleme bei der Spermatogenese zurückzuführen.
Bei Vorliegen von Hypogonadotrophem Hypogonadismus werden nicht genügend Sexualhormone produziert, um eine Spermienbildung anzuregen. Auch hier
kann FSH erfolgreich eingesetzt werden.
Das für eine Behandlung erforderliche FSH wurde vor
der Verfügbarkeit gentechnischer Methoden aus Urin
aufgereinigt. Klinische Studien haben gezeigt, dass
dem rekombinanten Produkt eine bessere Wirkung
zugeschrieben werden kann. Das Hormon ist ein
heterodimeres Glykoprotein, besteht also aus zwei
unterschiedlichen Proteinketten, die jeweils noch mit
Zuckerresten verknüpft sind. Die Länge der beiden Ketten beträgt 92 bzw. 111 Aminosäuren. Das rekom-
82
binante Produkt wird durch Kultur von gentechnisch
veränderten Hamsterzellen (CHO) hergestellt.
Calcitonin
Beim Calcitonin handelt es sich um ein Hormon, das für
die Regulation des Knochenstoffwechsels von Bedeutung ist. Die Größe der Knochen ändert sich zwar nach
der Wachstumsphase nur noch geringfügig, doch wird
die Knochensubstanz ständig auf- und abgebaut.
Besondere Bedeutung kommt hierbei den Zelltypen der
Osteoblasten (Knochenaufbau) und Osteoklasten (Knochenabbau) zu. Calcitonin wirkt hemmend auf die Aktivität der knochenabbauenden Osteoklasten.
Das aus 32 Aminosäuren bestehende Calcitonin wurde
im Jahr 1962 entdeckt. Das Hormon des Lachses wird
schon seit vielen Jahren – extrahiert oder chemisch
synthetisiert – in der Medizin eingesetzt. Man verwendet das Calcitonin aus Lachs, weil dieses eine besonders hohe biologische Aktivität im Menschen aufweist.
Anwendung findet das rekombinante Calcitonin bei
Krankheiten, die mit dem Stoffwechsel der Knochen
oder erhöhten Calciumspiegeln im Blut zu tun haben,
insbesondere der Paget-Krankheit und der Hypercalcaemie. Die Paget-Krankheit ist vorwiegend bei älteren Patienten anzutreffen; rund 3–4 % der Bevölkerung
über 55 Jahre sind betroffen. Die Krankheit zeichnet
sich durch eine Störung des Knochenstoffwechsels
und daraus resultierend eine Deformation und eine
erhöhte Brüchigkeit der Knochen aus.
Gegenüber der chemischen Synthese oder anderen
Produktionsverfahren bietet die Herstellung mittels
gentechnisch veränderter E. coli Bakterien und nachfolgender enzymatischer Veränderung – unter Verwendung eines ebenfalls gentechnisch hergestellten Enzyms – eine Reihe von Vorteilen. Eine inhalierbare Version des gentechnischen Präparats wird getestet.
Glucocerebrosidase (GCR)
Das Fehlen des Enzyms Glucocerebrosidase im Körper
führt zum Auftreten einer Krankheit, die als GaucherKrankheit oder Morbus Gaucher bekannt ist. Eine
bestimmte Substanz, das Glucocerebrosid, kann dabei
vom Körper nicht mehr richtig abgebaut werden und
sammelt sich in den so genannten Fresszellen an. Das
Biotechnologie und Markt
führt häufig dazu, dass Leber und Milz stark anschwellen. Dieses Phänomen wurde von dem französischen
Arzt Gaucher vor mehr als hundert Jahren erstmals
beschrieben. Als Konsequenz der Schwellungen wird
bei der Gaucher-Krankheit oft ein „dicker Bauch“ beobachtet. Daneben gibt es noch viele andere Symptome.
Die Krankheit ist für die Betroffenen häufig mit starken
Schmerzen und der Notwendigkeit chirurgischer Eingriffe verbunden.
Die Krankheit kann schon in der Jugend oder erst in
späteren Jahren auftreten und weist leichte und
schwere Verlaufsformen auf. Je früher sie auftritt,
desto schwerer verläuft sie in der Regel. Sie betrifft
Männer wie Frauen gleichermaßen. Ihre Häufigkeit in
der Gesamtbevölkerung beträgt rund 1:40.000. Mit
sehr viel höherer Wahrscheinlichkeit findet sich die
Krankheit allerdings bei Juden osteuropäischer
Abstammung. In dieser Bevölkerungsgruppe tritt die
Erkrankung mit einer Häufigkeit von rund 1:600 auf.
Da die Krankheit durch das Fehlen eines einzelnen
Enzyms verursacht wird, kann man sie durch Applikation des isolierten Enzyms therapieren. Dazu wird das
Enzym seit wenigen Jahren aus menschlichen Plazentas isoliert und so modifiziert, dass es von den Fresszellen des Körpers leicht aufgenommen wird. Dies war
ein entscheidender Schritt in der Therapie der Gaucher-Krankheit. Die Patienten sind allerdings auf eine
ständige, lebenslange Versorgung mit dem Enzym
angewiesen. Weltweit erhalten heute mehr als 1.000
Patienten die Enzymtherapie.
Für die jährliche Versorgung nur eines Patienten müssen rund 20.000 Plazentas aufgearbeitet werden.
Diese sind nicht immer einfach zu bekommen. Daher
bieten sich gentechnische Methoden als ein alternatives Herstellverfahren an, das von der Versorgung mit
Plazentas unabhängig macht.
Die genetische Information für das Enzym Glucocerebrosidase wurde in Hamsterzellen übertragen und dieses kann heute aus Zellkulturen gewonnen werden.
Das rekombinante Produkt wird seit 1994 vermarktet.
Das bislang aus Plazentas gewonnene Produkt soll
nach und nach durch das rekombinante Enzym ersetzt
werden.
Als Krankheit, die auf den Defekt in nur einem Gen
zurückzuführen ist, bietet sich Morbus Gaucher als Target für eine Somatische Gentherapie an. Entsprechende Versuche wurden in den USA bereits durchgeführt.
Da die Somatische Gentherapie insgesamt Ende 1999
einige schwere Rückschläge hat hinnehmen müssen,
wird der Einsatz solcher Methoden aber wohl noch
einige Zeit auf sich warten lassen.
Granulocyten-Koloniestimulierender
Faktor (G-CSF, Filgrastim)
Die unterschiedlich spezialisierten Zellen unseres Blutes gehen aus gemeinsamen Vorläuferzellen, den so
genannten Stammzellen, hervor. Für die spezifische
Ausdifferenzierung der Stammzellen sind spezielle
Faktoren verantwortlich. Einer dieser Faktoren wurde
Die Biotechnologie
liefert viele
neue Wirkstoffe.
mit dem Erythropoietin bereits vorgestellt. Auch G-CSF
gehört zu den Differenzierungsfaktoren. Das G-CSF
hilft dabei, dass aus Stammzellen die so genannten
Granulocyten, eine bestimmte Sorte der weißen Blutkörperchen, entstehen. Die Granulocyten spielen eine
wichtige Rolle im Immunsystem des Menschen. Sie
halten insbesondere Bakterien in Schach, die sonst
Krankheiten auslösen würden.
Bei einer Chemotherapie an Krebspatienten wird das
Immunsystem stark in Mitleidenschaft gezogen. Die
zur Chemotherapie eingesetzten Zytostatika richten
sich ziemlich unterschiedslos gegen alle Zellen, die
sich teilen. Damit hemmen sie zwar wie erwünscht das
Wachstum von Tumorzellen. Sie haben aber auch
nachteilige Wirkungen auf die Zellen, die sich aufgrund ihrer normalen Funktion teilen müssen. Dazu
gehören nicht zuletzt die oben erwähnten Stammzellen, aus denen sich die unterschiedlichen Typen der
gesunden Blutzellen entwickeln. Daher wird die Fähigkeit des Knochenmarks, neue weiße Blutkörperchen zu
83
Biotechnologie und Markt
produzieren, bei einer Chemotherapie stark in Mitleidenschaft gezogen. Das resultierende Absinken in der
Zahl der Granulocyten macht die Patienten anfällig
gegenüber Infektionen. Bakterien, mit denen das
menschliche Immunsystem an sich leicht fertig wird,
stellen plötzlich eine tödliche Bedrohung dar.
Durch diesen Umstand wird die Dosis an Zytostatika,
die man gegen die Krebszellen einsetzen kann, limitiert. Außerdem müssen die Patienten mit hohen
Dosen an Antibiotika versorgt werden, um den Ausfall
der Immunzellen zu kompensieren.
Wird etwa einen Tag nach der Chemotherapie mit der
Gabe von G-CSF begonnen, dann erholt sich das
Immunsystem sehr viel schneller als ohne diese
Behandlung. G-CSF stimuliert ja die Bildung von Granulocyten, so dass die Immunkompetenz in stark verkürzter Zeit wiederhergestellt werden kann. Dadurch
befinden sich die Patienten entsprechend weniger
lang in der gefährlichen Phase, in der sie Infektionen
gegenüber anfällig sind. Die Sterblichkeit wird deutlich reduziert. Außerdem wird der Klinikaufenthalt insgesamt für die Patienten verkürzt und der Verbrauch an
Antibiotika verringert. Bei Anwendung von Zytostatika
in der Krebstherapie hat G-CSF heute einen festen und
wichtigen Platz.
Die Stimulierung der Bildung immunkompetenter Zellen ist auch bei Knochenmarktransplantationen von
großem Vorteil. Durch Gabe von G-CSF wird nach solchen Transplantationen rund 7 Tage früher wieder ein
immunkompetenter Status des Patienten erreicht. Daraus resultieren auch hier die oben bereits beschriebenen Vorteile. Generell kann G-CSF überall dort ein
wichtiger Faktor sein, wo die Zahl der Granulocyten
angehoben werden soll.
Durch Anwendung gentechnischer Verfahren ist G-CSF
erstmals für therapeutische Zwecke verfügbar geworden. Besonders durch den verbreiteten Einsatz in der
Krebstherapie gehört G-CSF heute mit zu den wichtigsten Medikamenten.
Granulocyten-Makrophagen-Koloniestimulierender Faktor (GM-CSF, Sargramostim)
GM-CSF gehört ebenfalls zu den vielen Faktoren, die
für eine Ausdifferenzierung der Stammzellen des Bluts
84
verantwortlich sind. Andere Beispiele aus dieser
Palette sind die ebenfalls kurz vorgestellten Faktoren
EPO und G-CSF.
Die unterschiedlichen Typen der weißen Blutkörperchen erfüllen verschiedene Aufgaben. Für eine intakte
Immunabwehr sind sie alle von großer Bedeutung. Der
GM-CSF ist wie auch der G-CSF für die Ausdifferenzierung einer bestimmten Klasse der weißen Blutkörperchen verantwortlich. Während allerdings G-CSF ausschließlich eine Differenzierung in Granulocyten
bewirkt, ist GM-CSF an der Ausdifferenzierung verschiedener Zelltypen beteiligt. Besonders wichtig ist
GM-CSF für eine Differenzierung von Vorläuferzellen
in Makrophagen. Auf bereits ausdifferenzierte Granulocyten und Makrophagen hat GM-CSF eine aktivierende Wirkung. Es konnte gezeigt werden, dass Patienten
gegenüber Infektionen weniger anfällig sind, wenn sie
mit GM-CSF behandelt werden.
Wie schon für die anderen Differenzierungsfaktoren
gilt auch für GM-CSF, dass es in den therapeutisch notwendigen Mengen nur durch gentechnische Methoden
hergestellt werden kann. Das Gen für GM-CSF wurde
daher in Hefe kloniert. Aus diesem Wirtsorganismus
kann das Protein für die medizinischen Anwendungen
gewonnen werden.
Ein Einsatz von GM-CSF gilt – ähnlich wie beim G-CSF
beschrieben – der schnelleren Regeneration des
Immunsystems. Zugelassen wurde GM-CSF zunächst
für die Anwendung nach autologen Knochenmarktransplantationen, später dann auch für die Anwendung nach allogenen Knochenmarktransplantationen.
Im autologen Fall wird eigenes Knochenmark des Patienten transplantiert, im allogenen Fall das Knochenmark eines geeigneten Spenders. In beiden Fällen
dient GM-CSF dazu, die Immunabwehr der Patienten
schneller zu regenerieren.
Bei der Transplantation von Knochenmark geht es
darum, an die im Knochenmark besonders häufigen
Stammzellen des Bluts zu gelangen, aus denen sich im
Patienten dann – mit Hilfe der Differenzierungsfaktoren – die verschiedenen Zelltypen entwickeln sollen.
In geringer Zahl sind die Stammzellen allerdings auch
im Blut selbst enthalten und können durch eine spezielle Technik daraus isoliert werden. Dieses Verfahren
ist für den Patienten weit weniger belastend als der
Biotechnologie und Markt
chirurgische Eingriff bei der Transplantation von Knochenmark. GM-CSF hat nun auch die Eigenschaft, die
Zahl der Stammzellen im Blut zu erhöhen, was für ihre
Gewinnung sehr vorteilhaft ist. Auch hier kann GMCSF daher eingesetzt werden. In der Krebstherapie findet GM-CSF heute ebenfalls Verwendung.
Insulin
Die Zuckerkrankheit, Diabetes mellitus, ist eine
schwere Stoffwechselerkrankung. Ohne Behandlung
führt sie zum Tod. Diabetes kommt aus dem Griechischen und bezieht sich auf die großen Harnmengen,
die von nicht behandelten Kranken ausgeschieden
werden. Mellitus, gleichfalls aus dem Griechischen,
bedeutet in etwa „mit Honig gesüßt“ und verweist darauf, dass im Harn der Kranken Zucker vorkommt. Der
Körper erkennt beim Diabetes den aus der Nahrung ins
Blut gelangten Zucker, die Glucose, nicht und aktiviert
fatalerweise eigene Reservestoffe wie Fette und Proteine, die stattdessen als Brennstoffe für seinen Energiebedarf herhalten müssen. Als „Schmelzen von
Fleisch und Gliedern zu Harn“ hat der griechische Arzt
Aretaios die Krankheit schon im 2. Jahrhundert nach
Christus beschrieben.
Das Insulin signalisiert den relevanten Körperzellen,
dass Glucose vorhanden ist und aus dem Blut aufgenommen werden kann. Ist zuwenig Insulin vorhanden
oder die Signalvermittlung zwischen Insulin und den
Körperzellen gestört, dann kommt es zu dem oben
beschriebenen Krankheitsbild.
Dank der Arbeit von Medizinern und Biochemikern ist
man der Bedeutung von Insulin schon früh auf die
Schliche gekommen. Dieser intensiven Arbeit ist es zu
verdanken, daß bereits im Jahr 1922 mit der InsulinBehandlung von Zuckerkranken begonnen werden
konnte. Das Insulin gewann man zu diesem Zweck aus
den Bauchspeicheldrüsen von Rindern und Schweinen.
In den Schlachtereien wurden die Bauchspeicheldrüsen gesammelt, tiefgefroren und an die verarbeitenden Pharmafirmen geschickt. Dort wurden pro Tag
dann mehrere Tonnen Bauchspeicheldrüsen aufgearbeitet.
Es ist ausgerechnet worden, dass für die jährliche Versorgung eines zuckerkranken Menschen z. B. 50
Schweine geschlachtet werden mussten. Allein in
Deutschland wird die Zahl der Menschen, die insulinpflichtig sind, auf rund 400.000 geschätzt. Der Weltbedarf an Insulin wird mit 5–6 Tonnen pro Jahr angegeben.
Wegen der ständig steigenden Zahl von Zuckerkranken
und der Kopplung der Insulingewinnung an die
Schlachtung von Rindern und Schweinen wurde Mitte
der 70er Jahre von der Weltgesundheitsorganisation
davor gewarnt, dass die Versorgung mit Insulin zukünftig nicht mehr gewährleistet sein könnte. Da kam die
Gentechnik gerade recht. Das Insulingen, und zwar die
Bauanleitung für das menschliche Hormon, wurde isoliert und in Mikroorganismen eingeschleust. Dies passierte bereits Ende der 70er Jahre und gehört zu den
vielen Pionierleistungen der Gentechnik. Durch die
Anwendung zahlreicher Kniffe gelang es dann bald,
die Mikroorganismen zur Produktion von Insulinvorläufern zu bringen, aus denen aktives, menschliches Insulin durch klassische Aufarbeitungsverfahren gewonnen werden kann.
Bereits im Jahr 1982 wurde Humaninsulin als erstes
Therapeutikum aus biotechnischer Herstellung in den
Markt eingeführt. Heute hat das Humaninsulin die
anderen Insuline fast vollständig vom Markt verdrängt.
Auch in Deutschland, wo die Herstellung von Humaninsulin durch gesellschaftspolitische Auseinandersetzungen lange verzögert worden ist, wird heute ein
biotechnisches Herstellverfahren eingesetzt. Zudem
wurde in Frankfurt im Jahr 1999 mit dem Bau der weltweit größten Produktionsanlage für Humaninsulin aus
biotechnischer Herstellung begonnen. Dieses Insulin
soll inhaliert werden können.
Das biotechnische Produktionsverfahren für Humaninsulin garantiert zunächst einmal die Versorgung der
zuckerkranken Menschen mit diesem für sie lebenswichtigen Medikament. Die Möglichkeit, Humaninsulin einzusetzen, hat aber noch einen weiteren Vorteil.
Da es sich beim Humaninsulin um einen körpereigenen
Stoff handelt, sind bei seiner Anwendung weniger
Nebenreaktionen zu befürchten. Hingegen unterscheiden sich Rinder- und Schweineinsulin etwas vom
Humaninsulin. Dadurch kann es im Laufe einer längeren Applikation zu Abwehrreaktionen des Körpers mit
teilweise sehr schweren Ausprägungen kommen. Eine
solche Reaktion brauchen die Patienten bei Anwen-
85
Biotechnologie und Markt
dung des Humaninsulins nicht mehr zu befürchten.
Andere Entwicklungen zielen auf Insuline, die schneller oder langsamer wirken als das normale Insulin. In
beiden Fällen können sich für die Patienten Vorteile
ergeben. Ein gentechnisch hergestelltes Insulin, das
schneller wirkt als das normale, wurde bereits in den
Markt eingeführt. Die Applikationsform des Insulins,
die wie ein Spray inhaliert werden kann und nicht mehr
gespritzt werden muss, befindet sich in einer späten
Phase der klinischen Prüfung.
Interferon α
Der Name Interferon wurde 1957 für einen Faktor
geprägt, der Zellen gegen einen Angriff von Viren resistent machen kann. Heute weiß man, dass es eine
Vielzahl unterschiedlicher Interferone gibt. Als Blutfaktoren, die normalerweise nur in äußerst geringen
Konzentrationen vorhanden sind, können sie nur durch
gentechnische Verfahren für therapeutische Zwecke
gewonnen werden.
Man unterscheidet α-, β- und γ-Interferone. Speziell
die Klasse der α-Interferone spaltet sich noch weiter
in viele Subtypen auf. Gentechnisch hergestellt und
klinisch eingesetzt werden die Subtypen α-2-a und α2-b sowie ein daraus abgeleitetes Produkt (siehe
unten). Man weiß heute, dass die antivirale Wirkung
der Interferone nur eine von vielen ist. Interferone binden an die Oberflächen von Zellen und aktivieren
dadurch verschiedene Gene. Die resultierenden Wirkungen sind komplex und können unterschiedliche
klinische Relevanz haben.
Aus den vielfältigen Wirkungen resultiert die Tatsache, dass α-Interferon heute für eine Vielzahl von
Anwendungen zugelassen ist. In einigen Indikationen
wird α-Interferon als allein wirksame Komponente
gegeben. In anderen Fällen wird α-Interferon gemeinsam mit anderen Medikamenten eingesetzt.
Eine Monotherapie-Anwendung zielt beispielsweise
auf Patienten mit chronischer Hepatitis B oder C. Das
Hepatitis-B-Virus (HBV) hat weltweit rund 300 Millionen Menschen infiziert. Rund 2 Millionen Todesfälle
werden jedes Jahr dem HBV zugeschrieben. Daneben
gilt es bei chronischen Trägern als mitverantwortlich
für zahlreiche Leberdefekte bis hin zum Leberkrebs.
86
Das α-Interferon erwies sich bei entsprechender
Anwendung als die erste verträgliche und wirksame
Therapie der chronischen Hepatitis B. Bei der auf das
Hepatitis-C-Virus zurückzuführenden chronischen
Hepatitis bietet α-Interferon die einzige verfügbare
Behandlung.
Auch in der Behandlung einer der häufigsten
Geschlechtskrankheiten (genitale Warzen) kann αInterferon sehr erfolgreich eingesetzt werden. Für
diese Indikation ist auch eine aus Zellkulturen gewonnene Mischung verschiedener α-Interferone auf dem
Markt.
In Monotherapie oder Kombinationstherapie mit
Zytostatika wird α-Interferon heute besonders auch
gegen bestimmte Krebsarten eingesetzt. Dazu gehört
in erster Linie Krebs von Blutzellen (z. B. bestimmte
Leukämieformen), aber auch das Melanom oder das
Nierenzellkarzinom. Auch Aids-Patienten mit KaposiSarkom profitieren von einer a-Interferonanwendung.
Da α-Interferon sehr komplexe Reaktionsfolgen bewirkt, weist es ein Spektrum von Nebenwirkungen auf.
Am bekanntesten sind grippeähnliche Symptome. Es
muss daher sorgfältig kontrolliert verabreicht werden.
Interferon Alfacon-1
Interferone sind die einzigen von der amerikanischen
FDA gegen Hepatitis C, eine Form der Gelbsucht, zugelassenen Medikamente. Das Hepatitis-C-Virus, der
Auslöser der Krankheit, ist übrigens nur dank gentechnischer Methoden überhaupt entdeckt worden. Knapp
4 Millionen Amerikaner sollen mit dem Hepatitis-CVirus infiziert sein. Lange Zeit war α-Interferon das
einzige Medikament gegen die Krankheit. Allerdings
sprachen nur rund 50 % der Patienten auf eine Behandlung an. Von diesen konnten wiederum nur 20 % erfolgreich therapiert werden. Die Ergebnisse mit dem
Kunstprodukt Interferon Alfacon-1 sind hier deutlich
besser.
Interferon Alfacon-1 gehört eindeutig zur Gruppe der
α-Interferone, kommt aber in der Natur nicht vor. Es
gehört damit zu den gentechnischen Produkten der so
genannten zweiten Generation. Die Gentechniker
haben sich zunächst die natürlichen α-Interferone
genau angesehen. Von diesen existieren in der Natur
Biotechnologie und Markt
β-Interferon bei Patienten mit Multipler Sklerose die
Angriffe auf das Myelin der Nervenstränge mildern
kann.
etliche Subtypen. Die Aminosäuresequenzen dieser
Subtypen variieren an vielen Stellen, doch wird eine
bestimmte Aminosäure an einer definierten Stelle der
Sequenz jeweils besonders häufig angetroffen. Deshalb haben die Gentechniker die Gensequenzen der
unterschiedlichen Interferone so miteinander kombiniert, dass ein Interferon entsteht, dessen Aminosäuresequenz quasi den optimalen Durchschnitt aller
natürlichen α-Interferone darstellt. Das Kunstprodukt
Alfacon-1 enthält in seiner Sequenz jeweils die Aminosäuren, die bei den natürlichen α-Interferonen am
häufigsten anzutreffen sind.
Interferon β
Interferone waren der Wissenschaft zunächst im
Zusammenhang mit viralen Infektionen aufgefallen.
Beim α-Interferon sind diese Zusammenhänge schon
erwähnt worden. Doch das Wissen um die verschiedenartigen Wirkungen der einzelnen Substanzen, das
durch Anwendung gentechnischer Methoden erworben wurde, erschloss plötzlich noch ganz andere Möglichkeiten. Dies gilt besonders im Hinblick auf die
Regulation der Immunantwort.
Die Aktivität von Immunzellen richtet sich im Falle von
so genannten Autoimmunerkrankungen fatalerweise
gegen körpereigene Zellen. Dieses Phänomen wurde
im Zusammenhang mit dem gegen TNF gerichteten
Fusionsprotein Etanercept bereits erwähnt. Im Falle
der Multiplen Sklerose wird eine Art Isolierschicht um
die Nervenstränge herum, das Myelin, geschädigt.
Dadurch wird die normale Reizleitung beeinträchtigt,
was mit der Zeit zu schweren motorischen und mentalen Schäden führen kann. Die genaue Ursache der
Krankheit ist zwar noch nicht endgültig geklärt, die
Beteiligung des Immunsystems allerdings ist nachgewiesen.
Das β-Interferon ist ein Botenstoff zwischen Zellen
des Immunsystems. Es hat wie auch das α-Interferon
eine ganze Reihe von Wirkungen, die erst zum Teil verstanden sind. Erfreulicherweise hat sich gezeigt, dass
Allerdings gilt das nur für solche Patienten, die nicht
an der chronischen Form der Multiplen Sklerose leiden. Bei der chronischen Form scheint das β-Interferon
nicht zu wirken. Doch wird die überwiegende Zahl der
Patienten erstmals mit einer Form der Krankheit diagnostiziert, die eine in Schüben auftretende Verlaufsform zeigt. Diesen Patienten kann mit β-Interferon
wirksam geholfen werden. Möglicherweise hat das
damit zu tun, dass die Krankheitsschübe in Zusammenhang mit viralen Infektionen stehen. Zum einen würde
β-Interferon dann als antivirales, zum anderen als
immunmodulierendes Medikament wirken. Die Attacken gegen das Myelin, die bei den Patienten in zeitlichen Abständen auftreten, werden durch Gabe von
β-Interferon auf jeden Fall seltener. Die resultierenden
Schäden an den Nervensträngen fallen weniger
schwer aus. Daher ergibt sich für die Patienten eine
deutliche Verlangsamung im Fortschreiten der Krankheit, die bei etwa 30 % liegt.
Die Zahl der an den verschiedenen Formen der Multiplen Sklerose leidenden Patienten wird allein in den
USA auf 250.000 – 300.000 geschätzt, wobei die
Krankheit bei Frauen deutlich häufiger auftritt.
Wie α-Interferon weist auch β-Interferon als sehr
potenter Wirkstoff eine Reihe von Nebenwirkungen
auf. Die Patienten, die es sich selbst applizieren können, müssen daher sorgfältig eingewiesen werden.
In den USA, wo das Medikament 1993 eingeführt
wurde, sind bislang rund 50.000 Patienten behandelt
worden. Das β-Interferon gehört zu den gentechnisch
gewonnenen Therapeutika, die auch in Deutschland
hergestellt werden. Das Interferon-β-1a-Molekül ist
166 Aminosäuren lang und wird in Kulturen von Hamsterzellen (CHO) hergestellt.
Interferon γ
Bei γ-Interferon handelt es sich um einen Wirkstoff,
der sich in seiner Struktur deutlich von den beiden
anderen Interferonklassen, α- und β-Interferon, unterscheidet. Die Interferone werden allerdings über die
von ihnen ausgeübten antiviralen Wirkungen definiert,
87
Überdurchschnittlich: Der Vergleich
unterschiedlicher
Sequenzen führt zur
Konstruktion eines
optimierten Wirkstoffs.
Biotechnologie und Markt
nicht über die Struktur. Das ist der Grund dafür, dass
γ-Interferon trotz der strukturellen Unterschiede zu
den anderen Klassen doch auch als ein Interferon
bezeichnet wird.
Alle Interferone spielen eine wichtige Rolle bei der
Immunantwort. Allerdings verfügt nur γ-Interferon
über die Fähigkeit, Phagocyten, eine Bakterien fressende Sorte von weißen Blutkörperchen, zu aktivieren.
Diese Aktivierung führt in den Phagocyten unter anderem zur Entstehung von Substanzen, die Bakterien effizient abtöten können. Dadurch werden die bakteriellen
Eindringlinge nach der Aufnahme durch die Phagocyten vernichtet.
Bei einer seltenen Form von erblicher Immunschwäche, der chronischen Granulomatose, ist diese
Fähigkeit der Phagocyten in Mitleidenschaft gezogen.
Durch Gabe von γ-Interferon (γ-Interferon 1-b) kann
hier eine deutliche Verbesserung der Bakterien tötenden Phagocyten-Aktivität erreicht werden. Die Anfälligkeit von Patienten gegenüber schweren Infektionen
wird dadurch um mehr als die Hälfte reduziert. Auch
verringert eine Applikation von γ-Interferon im Falle
einer stationären Behandlung die Tage des erforderlichen Klinikaufenthalts auf rund ein Drittel.
Interleukin-2
Das menschliche Immunsystem ist mit erstaunlichen
Fähigkeiten ausgestattet. Stoffe, die im Körper nichts
zu suchen haben, werden von diesem System mit
großer Genauigkeit erkannt und eliminiert. Um dieser
Aufgabe gerecht werden zu können, bedarf es einer
Vielzahl von Abstimmungsprozessen. Die unterschiedlichen Zelltypen, die am Abwehrgeschehen beteiligt
sind, kommunizieren daher sehr intensiv miteinander.
Interleukin-2 gehört zu den vielen Botenstoffen, die im
Rahmen dieser Kommunikation eine Rolle spielen.
Interleukin-2 aktiviert bestimmte weiße Blutkörperchen, darunter die so genannten Killer-T-Zellen. Diese
Zellen töten, was zunächst verblüffend sein mag,
andere Zellen des Körpers ab. Dabei können sie aber
sehr genau zwischen normalen und irgendwie veränderten Zellen unterscheiden. Die Killer-T-Zellen haben
eine Art Patrouillen-Funktion im Körper und entfernen
Zellen, die nicht der Norm entsprechen. Beispielsweise können sie Zellen erkennen und attackieren, die mit
88
Viren infiziert sind. Aber auch manche Krebszellen
weisen Merkmale auf, die sie von normalen Körperzellen unterscheiden. Daher können auch bestimmte
Krebszellen von den Killer-T-Zellen angegriffen werden.
Das Konzept, die Erkennung von Krebszellen durch das
Immunsystem zu verbessern und körpereigene Funktionen zu nutzen, um die Krebszellen zu bekämpfen, ist
bestechend. Allerdings hängt dieses Vorgehen entscheidend davon ab, ob und wie gut sich die Krebszellen von normalen Zellen unterscheiden. Dies ist von
Krebsart zu Krebsart sehr unterschiedlich und reicht
nicht immer aus, um das Immunsystem des Menschen
als Waffe zu nutzen.
Im Falle von Patienten mit metastasierendem Nierenkrebs konnte aber gezeigt werden, dass Interleukin-2
vorteilhaft eingesetzt werden kann. Bei 15–30 % der
Patienten wurde eine Reduzierung des Tumorwachstums oder sogar eine Rückbildung der Tumoren beobachtet. Damit war Interleukin-2 das erste Medikament, das eine therapeutische Wirkung bei Patienten
mit metastasierendem Nierenkrebs entfaltet hat.
Interleukin-2 wird aus gentechnisch veränderten Bakterien gewonnen.
Neben dem direkten Einsatz von Interleukin-2 als Therapeutikum kann es auch verwendet werden, um zuvor
isolierte Immunzellen in vitro zu aktivieren. In diesem
Zusammenhang spielt es bei Ansätzen der somatischen Gentherapie eine wichtige Rolle. Auf die entsprechenden Anwendungen wird in den Kapiteln 2.8
und 2.10 in dieser Broschüre kurz eingegangen.
Interleukin 11 (Oprelvekin)
Beim Interleukin-11 handelt es sich der Wirkung nach
um einen Wachstumsfaktor, der das Wachstum hämatopoetischer Stammzellen und das Wachstum von Vorläufern der Megakaryonten anregt. Diese spielen eine
wichtige Rolle in der Immunabwehr. Ein bedeutendes
Einsatzgebiet für Interleukin-11 ist deshalb die Krebstherapie, weil es dort beim Einsatz einer Chemotherapie darauf ankommt, die Immunkompetenz des Patienten möglichst schnell wiederherzustellen. Das ist auch
im Zusammenhang mit G-CSF und GM-CSF bereits
erwähnt worden. Interleukin-11 wird einer Familie von
Wachstumshormonen zugerechnet, in die auch das
Biotechnologie und Markt
menschliche Wachstumshormon oder der gerade
genannte Faktor G-CSF und einige andere gehören.
Das native Interleukin-11 besteht aus einer Kette von
178 Aminosäuren, die nicht glykosyliert ist. Daher
kann es gentechnisch in Bakterienzellen (Escherichia
coli ) hergestellt werden. Dem so produzierten Interleukin-11 fehlt zwar die Aminosäure, mit der es normalerweise beginnt – ein Prolinrest am N-terminalen
Ende – das hat aber keinen messbaren Einfluss auf die
Aktivität des rekombinanten Produkts. Interleukin-11
wird subkutan verabreicht.
Menschliche DNAse (Dornase alpha)
Bei der Cystischen Fibrose, auch als Mukoviszidose
bezeichnet, haben die Patienten mit der Bildung eines
zähen Schleims in den Atmungsorganen zu kämpfen.
Dieser Schleim verursacht Atembeschwerden und
kann auch zu einer Reihe von anderen Problemen
führen. Diese betreffen u.a. die Verdauung sowie die
Selbstreinigungsfunktion der Atmungsorgane. Der
Schleim muss regelmäßig durch physiotherapeutische
Behandlung gelöst werden. Trotz dieser Maßnahmen
führt seine konstante Bildung dazu, dass die Patienten
häufig von Infektionen betroffen sind. Immunzellen
sammeln sich an den Orten der Infektionen, gehen
zugrunde und setzen ihre DNA nach außen frei. Dies
trägt zusätzlich zu einer Verdickung des Schleims bei.
Die Wahrscheinlichkeit für das Auftreten der Cystischen Fibrose beträgt bei uns etwa 1:2.500. Sie gehört
damit zu den häufiger auftretenden Erkrankungen. Das
Patientenkollektiv in den USA und Westeuropa wird
auf rund 50.000 Menschen geschätzt.
Technisch kann man die Cystische Fibrose als monogen vererbte, autosomal rezessive Erkrankung beschreiben. Das bedeutet, dass nur ein Gen an ihrer
Entstehung beteiligt ist, dass dieses Gen nicht auf
einem Geschlechtschromosom liegt, sondern auf einem anderen (wie man heute weiß liegt es auf
Chromosom Nr. 7), und dass, sowohl die mütterliche
wie auch die väterliche Ausfertigung des Gens defekt
sein müssen, damit die Krankheit in Erscheinung tritt.
Die oben benutzte Aussage „ein Gen“ ist also etwas
ungenau. Denn in unseren Körperzellen haben wir ja
von jedem Chromosom und den darauf beheimateten
Genen zwei Ausfertigungen, eins von der Mutter und
eins vom Vater. Die Besonderheit bei den Geschlechtschromosomen wollen wir an dieser Stelle nicht berücksichtigen.
Letztere Eigenschaft bedingt, dass es eine ganze Reihe
von Menschen gibt, die keine Anzeichen der Krankheit
aufweisen, trotzdem aber eine defekte Ausfertigung
des für die Cystische Fibrose wichtigen Gens in sich
tragen. Nur eine Ausfertigung des Gens ist intakt. Dieser Status findet sich bei uns sogar sehr häufig, mit
einer Frequenz von rund 1:25. Das Gen, dessen Defekt
zum Auftreten der Krankheit führt, konnte im Jahr 1994
kloniert werden. Es wird als CFTR-Gen bezeichnet
(eine Abkürzung für das auch im Englischen sehr
unhandliche „Cystic fibrosis transmembrane conductance regulator“). Damit bietet sich die Cystische
Fibrose als Ziel für eine Somatische Gentherapie an.
Erste Versuche wurden bereits durchgeführt – leider
bislang ohne den gewünschten Erfolg. Auch hier gilt,
dass eine Anwendung der Somatischen Gentherapie
noch einige Zeit auf sich warten lassen wird.
Doch nun endlich zur DNAse. Bei diesem seit 1993
erhältlichen, gentechnisch hergestellten Therapeutikum handelt es sich um ein menschliches Enzym, das
DNA abbauen kann. Etwas genauer gesagt handelt es
sich um das Enzym DNAse 1, das für die therapeutische Anwendung durch Kultur von gentechnisch veränderten Hamsterzellen (CHO) gewonnen wird. Eine
Applikation der DNAse 1 führt zu einem weitgehenden
Abbau der DNA innerhalb des Schleims, der die Patienten belastet. Dadurch wird der Schleim dünnflüssiger und kann besser abgehustet werden. Auch geht die
Zahl der Infektionen und der dadurch verursachten Klinikaufenthalte um rund ein Drittel zurück.
Die DNAse 1 wurde 1994 als Medikament in den Markt
eingeführt und war seit sehr langer Zeit erstmals wieder ein Medikament, das bei Cystischer Fibrose eine
therapeutische Bedeutung gewonnen hat. Durch Gabe
von DNAse 1 kann die etablierte Behandlung unterstützt und die Situation der Patienten deutlich verbessert werden.
Wachstumshormon
Das Wachstumshormon ist gemeinsam mit anderen
Hormonen für die Regulierung des Längenwachstums
zuständig. Die Menge des von der Hirnanhangdrüse,
89
Biotechnologie und Markt
der Hypophyse, produzierten Wachstumshormons korreliert ziemlich gut mit dem messbaren Wachstum.
Wird kein oder nur sehr wenig Wachstumshormon
gebildet, dann kommt es zu Zwergwuchs und teilweise
schweren physiologischen Komplikationen. Wird dagegen eine Menge gebildet, die nur etwas unter den
normalen Werten liegt, dann bleibt das Wachstum
auch nur geringfügig hinter dem zurück, was wir als
normal ansehen.
Vor der Einführung gentechnischer Methoden wurde
das Wachstumshormon aus der Hypophyse menschlicher Leichname gewonnen. Die solcherart zur Verfügung stehenden Mengen waren aber nur sehr gering.
Sie genügten kaum, um die Fälle des schweren Zwergwuchses zu therapieren. Darüber hinaus birgt die Isolierung von Proteinen aus menschlichem Gewebe oder
Blut immer ein gewisses Risiko für Kontaminationen
mit Krankheitserregern.
Tatsächlich traten Mitte der 80er Jahre bei dem aus
Leichnamen gewonnenen Wachstumshormon große
Probleme auf. Die an sich sehr seltene, durch ihre Verwandtschaft mit dem Rinderwahnsinn BSE aber stark
ins öffentliche Bewusstsein gerückte CreutzfeldJacob-Krankheit wurde offenbar durch bestimmte
Präparate des Wachstumshormons übertragen. Der
Verkauf von Wachstumshormon aus Leichnamen
wurde daraufhin in den USA verboten.
Ein von gentechnisch veränderten Bakterien hergestelltes Produkt konnte bereits wenige Monate später
die Lücke schließen. Die vieljährige Entwicklungsarbeit wurde hier also zufällig gerade zum richtigen Zeitpunkt beendet. Durch die Anwendung gentechnischer
Methoden steht das menschliche Wachstumshormon
heute als sicheres Medikament in ausreichender
Menge zur Verfügung.
Am Beispiel des menschlichen Wachstumshormons
lässt sich zeigen, dass mit der neuen Verfügbarkeit von
Medikamenten auch neue Problemstellungen auftreten können. Die Tatsache, dass mit dem gentechnisch
hergestellten Produkt ein sicheres Medikament für die
schweren Fälle des Zwergwuchses zur Verfügung
steht, ist uneingeschränkt zu begrüßen. Allerdings
eröffnen sich durch die Verfügbarkeit des Wachstumshormons nun auch Möglichkeiten für eine Behandlung
von Kindern, die in ihrem Wachstum lediglich hinter
90
der Norm zurückbleiben. In diesen Fällen kann man
nicht von einer Krankheit sprechen. Wie soll in diesen
Fällen verfahren werden? Eine Behandlung wäre dann
ja aus medizinischer Sicht nicht erforderlich, sondern
würde lediglich mit Blick auf das soziale Umfeld und
eine angenommene Benachteiligung kleiner Menschen in der Gesellschaft vorgenommen.
Die Verabreichung des Medikaments ist heute an
strenge medizinische Indikationen geknüpft. Kritiker
warfen aber dem Produzenten des gentechnisch hergestellten Wachstumshormons vor, eine aggressive
Vermarktungspolitik zu betreiben. Durch die Verfügbarkeit des Medikaments sahen sich manche Eltern
aufgefordert, ihre Kinder auch in medizinisch nicht
indizierten Fällen behandeln zu lassen, um ihnen mögliche Nachteile zu ersparen. Die Human Growth Foundation, eine gemeinnützige Stiftung in den USA, führte
beispielsweise Belege dafür an, dass geringe Körpergröße zu sozialen Problemen für die betroffenen Kinder führen kann. Die Frage, wann eine Behandlung mit
Wachstumshormon gerechtfertigt ist, stand im Raum.
In der Auseinandersetzung wurde gegen die Herstellerfirma ein Verfahren angestrengt, da sie beim Hinweis auf ihr Produkt nach Meinung der Kläger Vorschriften verletzt haben soll. Das Verfahren ist in den
USA mittlerweile außergerichtlich beigelegt worden.
Der Hersteller hat einen Betrag von 50 Millionen US-$
bezahlt.
Die Blutgerinnung
Das menschliche Blut stellt aus medizinischer und
pharmazeutischer Sicht eine recht gut zugängliche und
in großen Mengen verfügbare Ressource dar. Es kann
dem Körper in einem limitierten Umfang entzogen werden und wird von ihm dann nachgebildet. Für analytische Untersuchungen steht es quasi im Überfluss zur
Verfügung und kann sogar als Quelle für die Herstellung von Medikamenten genutzt werden. Nicht zuletzt
dieser leichten Zugänglichkeit ist es zu verdanken,
dass die verschiedenen Bestandteile des Bluts schon
früh untersucht werden konnten.
Blut ist eine Flüssigkeit, die aus zellulären Bestandteilen und aus löslichen Anteilen, dem Blutplasma,
besteht. Vom Herzen wird es im Körper umgepumpt
und erreicht durch die fein verästelten Blutkapillaren
praktisch jede Zelle. Wird der Körper verletzt, tritt Blut
Biotechnologie und Markt
aus den beschädigten Kapillaren aus. Es leuchtet ein,
dass im Lauf der Evolution ein Weg gefunden werden
musste, der den Verlust dieses „Lebenssaftes“ in diesem Fall dann auf ein Minimum beschränkt. Hier kommen wir zur Blutgerinnung.
Bei der Blutgerinnung sind zwei Punkte besonders
wichtig. Zum einen muss die Reaktion schnell ablaufen, um eine Wunde rasch zu verschließen und den
Körper vor einem hohen Blutverlust zu bewahren. Zum
anderen muss die Reaktion lokal eng begrenzt bleiben,
um ein Verstopfen intakter Blutgefäße zu verhindern.
Die fatalen Folgen einer derartigen Verstopfung kennt
man ja, nicht zuletzt vom Herzanfall.
spaltet dann die vernetzten Fibrinmoleküle und führt
damit zur Auflösung der Blutgerinnsel. Auch therapeutisch ist das von großem Interesse, da durch Gabe von
Gewebe-Plasminogen-Aktivator Blutgerinnsel, die z.B.
für einen Herzinfarkt verantwortlich sein können,
schnell aufgelöst werden.
Die folgende Abbildung zeigt die wesentlichsten Faktoren, die an der Blutgerinnung beteiligt sind. Mittels
biotechnischer Methoden können diese Faktoren
heute in praktisch beliebiger Menge hergestellt und
therapeutisch eingesetzt werden.
Die Blutgerinnung
ist ein komplizierter
Kaskadenmechanismus. Sie hängt ab
vom Zusammenspiel
vieler „Blutgerinnungsfaktoren“,
von denen der
Faktor VIII am
bekanntesten ist.
Mit Blick auf die erforderliche Geschwindigkeit kann
der Körper nicht erst dann mit der Bildung von Blutgerinnungsfaktoren beginnen, wenn eine Wunde entstanden ist. Vielmehr hält er die zur Gerinnung erforderlichen Komponenten im Blut jederzeit vor. Die meisten Komponenten zirkulieren allerdings in einer inaktiven, so genannten Vorläuferform. Die Blutgerinnung
ist dann das Resultat eines Kaskadenprozesses, in
dessen Verlauf immer mehr aktive Komponenten aus
diesen inaktiven Vorläufern gebildet werden. Ausgelöst und aufrechterhalten wird dieser Kaskadenprozess durch Signale, die nur lokal als Antwort auf
bestimmte Reize gegeben werden. Auch unphysiologische Reize führen zur Blutgerinnung. Es ist ja bekannt,
dass entnommenes Blut in einem Glasgefäß rasch
gerinnt.
Einen physiologischen Reiz stellt z.B. die Verletzung
von Blutgefäßen dar. An der verletzten Stelle setzen
die betroffenen Zellen Stoffe frei, die frühe Proteine
der Blutgerinnung aktivieren. Diese aktivieren ihrerseits nachgeschaltete Proteine der Kaskade und so
weiter. Da jedes aktivierte Protein mit zahlreichen Proteinen der jeweils folgenden Stufe interagiert, wird
das Signal auf jeder dieser Stufen verstärkt. Am Ende
der Kaskade steht die Aktivierung von Fibrinogen, das
als Fibrin dann stark vernetzte Strukturen bildet und
letztlich zur Gerinnung des Blutes führt.
Die Blutgerinnsel müssen dann, wenn sich die Blutgefäße regeneriert haben, auch wieder aufgelöst werden. Hier spielt der Gewebe-Plasminogen-Aktivator
eine wichtige Rolle, der die aktive Protease Plasmin
aus der Vorläuferform Plasminogen freisetzt. Plasmin
Faktor VIIa
Die Blutgerinnung ist wie oben dargestellt ein komplexer Vorgang, bei dem viele Faktoren ineinander greifen. Um zwischen den aktiven und inaktiven Formen
der Faktoren unterscheiden zu können, hängt man der
Bezeichnung des Faktors ein kleines a an, falls es um
die aktivierte Form einer inaktiven Vorstufe geht. Bei
Faktor VIIa handelt es sich also um die bereits aktivierte Form des Proteins, die im Körper sonst erst durch
Einwirkung von Gewebethromboplastin auf den inaktiven Vorläufer Faktor VII gebildet wird. Faktor VIIa
spielt eine wichtige Rolle im sogenannten extrinsischen Aktivierungssystem der Blutgerinnung. Der aktive Faktor VIIa verbindet sich mit weiteren Komponenten zum Komplex „Prothrombinaktivator“, durch des-
91
Biotechnologie und Markt
sen Wirkung aktives Thrombin aus dem Vorläufer Prothrombin gebildet wird.
Die wichtigsten Reaktionen bei der Blutgerinnung sind
in der Abbildung dargestellt. Die therapeutische Bedeutung von Faktor VIIa liegt darin, dass er in Sonderfällen einer Behandlung der recht häufig vorkommenden Bluterkrankheiten Hämophilie A bzw. B eingesetzt
werden kann. Diese sind durch den Ausfall der Faktoren XIII bzw. IX gekennzeichnet, die im intrinsischen
Aktivierungssystem der Blutgerinnung eine zentrale
Rolle spielen und nachfolgend noch vorgestellt werden. Die Krankheiten werden durch Gabe dieser Proteine behandelt. Nach Firmenangaben aus dem Frühjahr 1999 werden weltweit etwa 50.000 Patienten mit
den Faktoren VIII und IX versorgt. Knapp 10 % dieser
Kranken entwickeln im Lauf der Behandlung aber Antikörper gegen die therapeutischen Proteine und sprechen auf eine Behandlung nicht mehr an. Für diese
Gruppe von Patienten stellt die Gabe von Faktor VIIa
einen lebensrettenden Ausweg dar. Faktor VIIa aktiviert wie geschildert die extrinsische Kaskade und
induziert die Blutgerinnung daher unabhängig von den
Faktoren VIII und IX.
Weltweit gibt es rund 3.500 Patienten, die auf Faktor
VIIa angewiesen sind.
Faktor VIII
Eine Bluterkrankheit, eine Hämophilie, kann durch den
Ausfall verschiedener Faktoren verursacht werden.
Das bekannteste Beispiel für einen Fehler in der Blutgerinnung ist die so genannte Hämophilie A, die durch
einen Mangel an Faktor VIII bedingt wird. Diese Form
der Bluterkrankheit ist nicht zuletzt deswegen sehr
bekannt geworden, weil sie auch in einigen Adelshäusern vorgekommen ist. Der Aufstieg Rasputins am russischen Zarenhof zu Beginn dieses Jahrhunderts hat
z.B. ganz wesentlich damit zu tun, dass er den an der
Bluterkrankheit leidenden Thronfolger Alexei – der ein
Urenkel der Königin Victoria von England war – mit
allerlei seltsamen Methoden zu heilen versprach.
Die Krankheit Hämophilie A kann vererbt werden. Sie
tritt fast ausschließlich bei Männern in Erscheinung;
ihre Häufigkeit liegt bei etwa 1:10.000. Allein in den
USA waren Anfang 2000 rund 20.000 Patienten betroffen. Die betroffenen Patienten haben sich in der „World
92
federation of hemophilia“ international organisiert. An
den jährlichen Kongressen nehmen mehrere Tausend
Delegierte aus vielen unterschiedlichen Ländern teil.
Beim Faktor VIII handelt es sich um ein sehr großes
Protein von 2.331 Aminosäuren Länge. Die im menschlichen Blut vorhandenen Mengen an Faktor VIII sind
zwar gering, reichen aber für die Herstellung therapeutischer Mengen aus. Daher können Faktor-VIII-Präparate durch Aufreinigung aus menschlichem Blutplasma
gewonnen werden.
Problematisch ist bei diesem Vorgehen allerdings,
dass Blut von sehr vielen unterschiedlichen Spendern
gesammelt und aufgearbeitet werden muss, um auch
nur einen einzigen Patienten behandeln zu können.
Dadurch ergibt sich die Gefahr einer Verunreinigung
mit Viren. Die Möglichkeiten zur Inaktivierung von
Viren sowie die Methoden zu ihrer Detektion sind zwar
auf einem sehr hohen Stand. Noch zu Beginn der 80er
Jahre hat sich aber eine große Zahl von Blutern mit
dem Aids-Virus aus kontaminierten Präparaten infiziert.
Biotechnische Verfahren bieten für die Patienten ein
Höchstmaß an Sicherheit, wenn es um den Ausschluss
von Kontaminationen durch menschliche Viren geht.
Die Möglichkeit, auf menschliches Blut als Quelle für
die Blutfaktoren verzichten zu können, ist unter
Gesichtspunkten der Arzneimittel-Sicherheit ideal.
Zudem wird menschliches Blut als Ressource
geschont. Gentechnisch hergestellte Faktor VIII Präparate werden von unterschiedlichen Herstellern angeboten und sind seit vielen Jahren auf dem Markt.
Faktor IX
Während bei der Hämophilie A ein Mangel an Faktor
VIII vorliegt und deswegen die Bildung von Fibrin nicht
zustande kommt, liegt der Hämophilie B ein Mangel in
dem Protein Faktor IX zugrunde. Die Faktoren VIII und
IX arbeiten zusammen, um in der komplexen Kaskade
der Blutgerinnung den Faktor X zu aktivieren. Die auf
dem Ausfall von Faktor VIII beruhende Krankheit
Hämophilie A ist sehr viel häufiger anzutreffen als die
auf einem Defekt des Faktors IX beruhende Hämophilie
B. Von der Hämophilie B ist eines von 25.000 –30.000
männlichen Neugeborenen betroffen. Von einer
schweren Ausprägung der Krankheit spricht man,
Biotechnologie und Markt
wenn nur noch weniger als 1% der normalen Aktivität
des Proteins bei den Patienten vorhanden ist.
Das Protein Faktor IX besteht aus einer Kette von 415
Aminosäuren, die noch mit Zuckerresten verknüpft,
also glykosyliert, ist. Deshalb wird das Protein gentechnisch aus Kulturen von Hamsterzellen (CHO-Zellen) gewonnen. Wie schon beim Faktor VIII sorgt die
gentechnische Herstellung auch hier dafür, dass eine
Verunreinigung mit menschenpathogenen Viren so gut
wie ausgeschlossen ist. Das biotechnisch hergestellte
Medikament ist seit 1997 auf dem Markt.
Gewebe-Plasminogen-Aktivator (t-PA)
Der Gewebe-Plasminogen-Aktivator ist ein körpereigenes Protein, das quasi am anderen Ende der Blutgerinnung, bei der Auflösung von Blutgerinnseln, eine
wichtige Rolle spielt. Die Gerinnung muss ja äußerst
sorgfältig kontrolliert und lokal begrenzt werden. Wie
eingangs erwähnt, können sich kleine Blutgerinnsel
aufgrund einer ganzen Reihe von Faktoren bilden.
Gelegentlich werden sie vom Ort ihrer Entstehung weg
in den Blutstrom gespült und verstopfen feinere Blutkapillaren. Dadurch kann die Versorgung wichtiger
Organbereiche mit Blut und damit Sauerstoff unterbunden sein. Die fatalen Folgen sind Herzinfarkt, Lungenembolie oder Hirnschlag. In den industrialisierten
Ländern führen Herz-Kreislauf-Erkrankungen die
Todesstatistiken an. Fast jeder kennt in seinem eigenen Umfeld entsprechende Fälle.
Im Fall einer Herzattacke kommt es ganz entscheidend
auf die Länge der Zeit an, in der die betroffenen Herzmuskelbereiche nicht mit Sauerstoff versorgt werden.
Die zur Verstopfung führenden Gerinnsel müssen also
schnellstmöglich aufgelöst werden.
Hier bietet sich mit dem Gewebe-Plasminogen-Aktivator (t-PA, vom englischen tissue plasminogen activator) ein Protein an, das vom Körper selbst im Lauf der
Evolution auf diese Aufgabe hin optimiert worden ist.
Die Aufgabe von t-PA besteht darin, aus einem Vorläufer das Plasmin zu aktivieren. Plasmin wiederum spaltet das bei der Blutgerinnung entstehende Fibrin in lösliche Produkte und löst dadurch Blutgerinnsel auf.
Der Wirkstoff t-PA ist seit 1987 auf dem Markt. In
klinischen Studien konnte man zeigen, dass t-PA Vor-
teile gegenüber anderen Medikamenten besitzt, die
prinzipiell die gleiche Wirkung haben. Es hat sich deshalb am Markt durchgesetzt.
Durch Anwendung gentechnischer Methoden ist t-PA
erstmals für therapeutische Zwecke verfügbar geworden.
Das Medikament wird auch in Deutschland hergestellt.
Medikamente stellen auch bedeutende wirtschaftliche Faktoren dar. Als das von der Firma Genentech in
den USA hergestellte Medikament die Zulassung von
der amerikanischen Zulassungsbehörde FDA erhielt,
wurde der Flughafen von San Francisco kurzzeitig
gesperrt, damit die dort in der Nähe angesiedelte
Firma ein Feuerwerk abbrennen konnte. Man freute
sich auf die erwarteten Einnahmen.
Das Medikament geriet wegen seines hohen Preises
aber schnell unter Beschuss. Kritiker wiesen darauf
hin, dass die Kosten für das Medikament rund 10-mal
höher waren als für die bislang eingesetzten Therapeutika. Eine positivere Wirkung sei dagegen kaum
nachzuweisen. Der letztere Vorwurf konnte durch
umfangreiche Studien, die lange und kontrovers diskutiert worden sind, entkräftet werden. Die Preisgestaltung für neue Medikamente, die in den hohen Forschungskosten eine Rechtfertigung finden kann, wird
dagegen sicher ein Diskussionspunkt bleiben.
Heute ist auch ein gentechnisch hergestelltes t-PA der
zweiten Generation auf dem Markt, bei dem bestimmte Proteinanteile fehlen, so dass die Wirkprofile dieses Medikaments anders sind. Dieses t-PA wurde von
einer deutschen Firma entwickelt, musste nach einem
der zahlreichen Firmenzusammenschlüsse im Pharmabereich aber aus kartellrechtlichen Gründen verkauft
werden. Der Kaufpreis betrug viele hundert Millionen
US-$.
Hirudin
Der Einsatz von Blutegeln hat in der Medizin eine lange
Tradition. Man hoffte, mit dem Blut würden die Egel
auch die krank machenden Agenzien aus dem Körper
eines Patienten ziehen. Die moderne Wissenschaft
wurde davon fasziniert, dass es den Blutegeln irgendwie gelingen muß, das Blut ihrer „Opfer“ flüssig zu halten. Denn eigentlich müsste das Blut an der verletzten
Hautstelle rasch gerinnen.
93
Biotechnologie und Markt
Blutegel haben in
der Medizin eine
lange Tradition.
Die Blutgerinnung wird dadurch verhindert, dass der
Blutegel einen Inhibitor der Protease Thrombin produziert und in das Blut abgibt. Bei der Blutgerinnung
spielt Thrombin eine zentrale Rolle, indem es aus dem
inaktiven Fibrinogen die aktiven Fibrin-Monomere bildet, die dann zu fädigen Strukturen reagieren (siehe
Abbildung S. 91). Der vom Blutegel gebildete Inhibitor
mit Namen Hirudin verhindert das. Das Hirudin kann
deshalb dort eingesetzt werden, wo es gilt, Blutgerinnsel zu verhindern oder aufzulösen. Es wird vor allem
bei Patienten angewendet, die auf Heparin, ein anderes Medikament zur Bekämpfung von Blutgerinnseln,
negativ reagieren.
Hirudin ist ein einzelsträngiges Protein aus 65 Aminosäuren. Das Gen für Hirudin wurde aus dem Blutegel
Hirudo medicinalis isoliert und in Hefe kloniert. Das in
Hefe hergestellte rekombinante Produkt ist gegenüber
dem natürlichen Hirudin leicht verändert, zeigt aber
die gleiche Wirkcharakteristik.
Monoklonale Antikörper
Die Herstellung Monoklonaler Antikörper stellte einen
Meilenstein in der Immunologie und Zellbiologie dar.
Wenn der menschliche Körper mit einem fremden
Agens konfrontiert wird, beispielsweise einem Bakterium, produzieren spezialisierte Zellen des Immunsystems gegen dieses Bakterium Abwehrstoffe, die Antikörper. Ein Bakterium, das eine solche Immunantwort
provozieren kann, bezeichnet man dann als immunogen. Als Antwort auf das Eindringen eines Bakteriums
werden nun viele unterschiedliche Immunzellen zum
94
Wachstum angeregt, die unterschiedliche Antikörper
produzieren. Diese unterschiedlichen Antikörper greifen an verschiedenen Stellen der Bakterienzelle an.
Die resultierende Mischung von Antikörpern, die als
Reaktion auf ein immunogenes Agens gebildet werden, nenn man polyklonal. Polyklonal deshalb, weil die
Antikörper von verschiedenen Zellvarianten gebildet
werden.
Mit solchen polyklonalen Antikörpern kann man schon
eine ganze Menge anstellen. Nicht zuletzt beruht der
passive Impfschutz darauf, dass solche polyklonalen
Antikörper in Tieren erzeugt und den Patienten verabreicht werden. Für die Forschung haben sie allerdings
den Nachteil, dass man nicht genau entscheiden kann,
wo die einzelnen Antikörper nun genau angreifen und
welche Interaktionen sie genau mit ihrem Zielmolekül
eingehen.
Von Milstein und Köhler, die für ihre Forschungen mit
dem Nobelpreis ausgezeichnet worden sind, wurde
nun ein Weg gefunden, um ganz gezielt nur eine Sorte
von Antikörpern zu produzieren. Das funktioniert nicht
mehr allein in vivo, also im Körper eines Versuchstieres, sondern auch in vitro, im Reagenzglas. Der entscheidende Trick besteht darin, die anfälligen Immunzellen robuster zu machen, so dass sie auch in Kultur
überleben.
Milstein und Köhler schafften das durch Fusion der
Immunzellen mit Tumorzellen, die sich ja bekanntlich
durch ungehemmtes Wachstum auszeichnen. Eine solche Hybridomazelle vereint die Fähigkeit, einen ganz
Biotechnologie und Markt
speziellen Antikörper zu produzieren mit der Fähigkeit,
gut in Kultur zu wachsen. Zunächst werden dabei
Immunzellen unterschiedlicher Spezifität in einem Versuchstier, meist der Maus, erzeugt. Diese Zellen werden dann isoliert und mit Tumorzellen fusioniert.
Anschließend wird aus der Mischung der Hybridomazellen diejenige herausgesucht, die den gewünschten
Antikörper produziert. Das geht relativ einfach, indem
man das Zielmolekül, das man in aller Regel gut kennt,
quasi als Angelhaken benutzt. Hat man die interessierende Zelle vereinzelt, dann produzieren alle aus ihr
später durch Teilung hervorgehenden Zellen nur noch
denselben, ganz spezifischen Antikörper. Diesen
bezeichnet man dann als monoklonal.
Auf die vielfältigen Anwendungen von MAK in Forschung und Diagnostik, aber auch in technischen Reinigungsverfahren, kann hier nur hingewiesen werden.
Die Hoffnungen auf einen Einsatz als hochspezifische
Therapeutika, die als „magic bullets“ zielgenau und
nebenwirkungsarm ihre Arbeit verrichten, zerschlugen
sich aber zunächst. Denn monoklonale Maus-Antikörper sind für den humantherapeutischen Einsatz
schlecht geeignet. Ihre Fremdartigkeit veranlasst nun
wieder das menschliche Immunsystem zur Bildung von
Antikörpern, so dass die gewünschte Wirkung unterdrückt wird und es zu anaphylaktischen Reaktionen
kommen kann.
Um diese Nachteile zu vermeiden, werden mit gentechnischen Methoden große Bereiche der Maus-Antikörper, die so genannten konstanten Regionen, durch
entsprechende Fragmente humaner Antikörper ausgetauscht. Die konstanten Regionen spielen für die Spezifität der Antikörper praktisch keine Rolle. Je nach
Gehalt an menschlichen Aminosäuresequenzen
spricht man dann von chimärisierten oder humanisierten Antikörpern.
den Regionen komplett denen des ursprünglichen
Maus-Antikörpers. Das verbessert die Bindung, kann
aber wieder in stärkerem Maß zu Problemen mit
Abstoßungsreaktionen führen.
Eine weitere Entwicklung zielt deshalb darauf, die
Antikörper vollständig zu humanisieren. Dazu hat man
transgene Mäuse erzeugt, in deren Genom der gesamte Bereich, der zur Bildung von Antikörpern erforderlich ist, vom Menschen stammt. Werden diese Mäuse
immunisiert, dann erzeugen sie „menschliche“ Antikörper. Ob diese dann tatsächlich die erwarteten Vorteile haben, müssen die bereits laufenden und zukünftigen klinischen Versuche zeigen. Auch andere intelligente Ansätze zur Herstellung großer Bibliotheken
menschlicher Antikörper werden heute verfolgt. Beispielsweise kann man durch Klonierung der entsprechenden menschlichen Gene sehr große Bibliotheken
von diversen Antikörperfragment-Genen in Phagen
oder Bakterien erzeugen, die das Antikörperfragment
dann auf ihrer Oberfläche exprimieren. Antikörperfragmente, die spezifisch an ein spezielles bekanntes Zielmolekül binden, findet man nun einfach, indem man
das Zielmolekül an einer festen Grundlage fixiert und
die ganze „Klon-Bibliothek“ dazugibt. Phagen bzw. Zellen, die das passende Antikörperfragment an ihrer
Außenseite tragen, binden sich an das Zielmolekül,
während der Rest der Klone abgespült werden kann.
Auf der Matrix bleiben also nur die Phagen bzw. Bakterien zurück, deren Erbgut die Information für das
gesuchte Antikörperfragment enthält. Dieses lässt
sich dann beliebig vermehren.
Die Grafik veranschaulicht den Unterschied zwischen
humanisierten und chimären Antikörpern.
Molekulare Chimäre:
Bei Monoklonalen
Antikörpern für
die Therapie stammt
nur noch der Antigen-bindende
Bereiche von
Mausantikörpern,
der größte Teil
stammt vom
Menschen.
Bei humanisierten Antikörpern stammen nur noch die
kleinen, antigenbindenden Regionen (complementarity dertermining regions, CDR) von den Maus-Antikörpern; der gesamt Rest entspricht einem humanen Antikörper-Protein. Allerdings muss man bei diesem Vorgehen häufig einen Qualitätsverlust hinsichtlich der
Bindung des Antikörpers an sein Zielmolekül hinnehmen. Bei den so genannten chimärisierten Antikörpern
werden deshalb größere Regionen des Maus-Antikörpers eingebaut. Damit entsprechen die antigenbinden-
95
Biotechnologie und Markt
Abciximab
Beim Abciximab handelt es sich um einen chimären
Antikörper, der nur noch aus seinen leichten Ketten
besteht, dem so genannten Fab-Fragment. Abciximab
ist gegen einen Rezeptor auf der Oberfläche von Platelet Zellen gerichtet. Dieser Rezeptor, auch als IIb/IIIaRezeptor bezeichnet, wird einer bestimmten Familie
von Rezeptoren zugerechnet, den so genannten Integrinen. Er bindet glykosylierte Proteine wie Fibrinogen
oder den von-Willebrand-Faktor und trägt damit
wesentlich zur Aggregation, also zur Zusammenballung, von Platelet-Zellen bei. Platelet-Zellen erkennen
beispielsweise geschädigte Gefäßwände, lagern sich
als schützende Schicht auf der Gefäßwand ab und initiieren die Ausbildung von Blutgerinnseln. Da z.B. auch
bei der Angioplastie, also der Aufweitung von Blutgefäßen mit Ballonkathetern, und anderen chirurgischen
Eingriffen eine Schädigung der Gefäßwände in Kauf
genommen werden muss, kommt es nach derartigen
Eingriffen häufig wieder zu einer erneuten Verengung
der Gefäße. Zu der neuerlichen Verengung trägt nicht
zuletzt ein Einwandern von glatten Muskelzellen bei,
das als Reaktion auf eine Schädigung von Gefäßwänden zu beobachten ist.
Abciximab bindet mit etwa gleicher Affinität den
IIb/IIIa-Rezeptor und noch einen zweiten, der ebenfalls
zu den Integrinen gezählt wird, den so genannten
Vitronectin-Rezeptor. Dieser Rezeptor moduliert die
Eigenschaften von Platelet-, aber auch von vaskulären
Endothel- und von glatten Muskelzellen. Wegen dieser
Eigenschaft kann Abciximab im Zusammenhang mit
chirurgischen Eingriffen vorteilhaft eingesetzt werden, um der neuerlichen Verengung der Blutgefäße
vorzubeugen. Abciximab blockiert die beschriebenen
Rezeptoren und unterbindet damit ein Anspringen der
natürlichen Aktivierungskaskade. Abciximab ist seit
1994 in den USA und Europa zugelassen.
Basiliximab
Bei Basiliximab handelt es sich um ein Therapeutikum,
das in seiner Wirkung dem nachfolgend beschriebenen
Daclizumab sehr ähnlich ist. Während Daclizumab
aber ein humanisierter Monoklonaler Antikörper ist,
stellt Basiliximab einen chimären Monoklonalen Antikörper dar. Beide sind gegen den Interleukin-2-Rezeptor auf der Oberfläche von aktivierten T-Lymphozyten
96
gerichtet und helfen, die Abstoßung transplantierter
Nieren zu verhindern. Die Verabreichung der beiden
Medikamente erfolgt in unterschiedlichen Zeitintervallen und Dosen. Die Feststellung, dass die Humanisierung von Antikörpern einen Verlust an Bindungsaffinität zur Folge haben kann, wird beim Vergleich von
Basiliximab und Daclizumab bestätigt. Der humanisierte Antikörper weist gegenüber dem Rezeptor eine
geringere Bindungsstärke auf und wird daher häufiger
und über einen längeren Zeitraum dosiert als der
chimäre Antikörper. Für die klinischen Resultate ist das
aber nach den vorliegenden Ergebnissen nicht von
Bedeutung.
Daclizumab
Daclizumab ist ein humanisierter Monoklonaler Antikörper, der zur Vorbeugung gegen die Organabstoßung
bei Nierentransplantationen eingesetzt wird. Daclizumab wird hierzu nicht allein, sondern in Kombination
mit anderen Immunsuppressiva wie Cyclosporin und
Corticosteroiden verabreicht. Klinische Studien haben
gezeigt, dass eine solche Kombination Vorteile für die
Patienten bringt. Daclizumab ist gegen einen hochaffinen Rezeptor für das Immunstimulanz Interleukin-2 auf
den Oberflächen von Immunzellen gerichtet. In Gegenwart von Daclizumab wird daher die stimulierende
Wirkung von IL-2 auf Lymphozyten verringert und
damit das Risiko einer Organabstoßung gesenkt.
Bei Daclizumab handelt es sich wissenschaftlich
etwas genauer gesagt um einen humanisierten IgG1Monoklonalen-Antikörper, der gegen die alpha-Untereinheit des hochaffinen IL-2-Rezeptors gerichtet ist.
Diese Untereinheit wird im wissenschaftlichen Jargon
auch p55 alpha, CD25 oder Tac genannt. Der Antikörper ist zu rund 90 % menschlich und entspricht nur zu
rund 10 % variablen Maus-Sequenzen. Die Größe des
Antikörpers liegt bei rund 144 kD. Der hochaffine IL-2
Rezeptor, der von dem Antikörper blockiert wird, wird
nur von aktivierten Lymphozyten, nicht von ruhenden
Zellen exprimiert.
Infliximab
Bei Infliximab handelt es sich um einen chimären
Monoklonalen Antikörper, der den konstanten Anteil
eines menschlichen IgG1-kappa-Antikörpers und den
variablen Anteil eines Maus-Antikörpers enthält.
Biotechnologie und Markt
Letzterer ist gegen den Tumor-Nekrose-Faktor alpha
(TNF-α) gerichtet. Dadurch wird die Wirkung von TNFα inhibiert. Dagegen wird TNF-β nicht beeinflusst,
obwohl dieses an denselben Rezeptor bindet wie
TNF-α.
F-Protein des Virus gerichtet. Die Blockade dieses Proteins durch den Antikörper hemmt das Fortschreiten
der viralen Infektion. Palivizumab war der erste Monoklonale Antikörper, der zur Behandlung einer Infektionskrankheit zugelassen wurde.
Das Haupteinsatzgebiet für Infliximab ist die so
genannte Crohn’s Disease, eine entzündliche Erkrankung, die hauptsächlich im unteren Dünndarmbereich
(Ileum) auftritt, allerdings auch andere Teile des Verdauungstraktes betreffen kann. Die Entzündung kann
Schmerzen und Diarrhöe hervorrufen. Von der Crohn´s
Disease sollen allein in den USA rund 250.000 Patienten betroffen sein. Infliximab ist das erste Medikament, das speziell für die Behandlung der Crohn´s
Disease zugelassen wurde. Es moduliert die Wirkung
von TNF-α, das entzündliche Reaktionen verstärken
kann. Die Wirkung von Infliximab ähnelt also der des
im Produktteil ebenfalls beschriebenen Etanercept,
das allerdings in einer anderen Indikation eingesetzt
wird.
Trastuzumab
Infliximab wird mit einer gentechnisch veränderten
Zelllinie hergestellt. Es ist ein großes Molekül von rund
149 kD Größe, das intravenös verabreicht werden muss.
Palivizumab
Besonders bei Frühgeburten, Säuglingen und Kleinkindern spielen Infektionen mit dem RSV (Respiratory
Syncytial Virus) ein Rolle. Diese Infektionen betreffen
die Atemwege von der Nase bis zur Lunge. Ab einem
Alter von drei Jahren zeigen die Erkrankten meist nur
die Symptome einer typischen Erkältung. Bei Jüngeren
können aber auch schwere Effekte bis hin zu einem
Versagen der Atemwege auftreten. Weltweit sind
mehr als hunderttausend Einweisungen ins Krankenhaus auf Infektionen mit RSV zurückzuführen und pro
Jahr sterben viele Tausend Kinder an den Symptomen.
Das Virus kann durch Tröpfcheninfektion übertragen
werden und verbreitet sich häufig sehr schnell.
Bei Palivizumab handelt es sich um einen humanisierten Monoklonalen Antikörper, der zu rund 95 % aus
menschlichen und zu rund 5 % aus Maus-Sequenzen
besteht. Der Antikörper ist gegen ein virales Protein
gerichtet, das für das Eindringen des Virus in seine
Zielzelle erforderlich ist. Wissenschaftlich etwas
genauer gesagt ist der Antikörper gegen ein Epitop im
Bei Brustkrebs gibt es eine Form, die durch Überexpression des „Human Epidermal Growth Factor Receptors 2“ (HER2) auf den malignen Zellen gekennzeichnet
ist. In rund 25–30 % der Fälle von metastasierendem
Brustkrebs ist diese Überexpression von HER2 festzustellen. Es befinden sich dann zu viele Rezeptoren auf
der Zelloberfläche und die Zellen erhalten zu starke
Wachstumssignale. Bei dem Rezeptorgen HER2 handelt es sich also um ein typisches Proto-Onkogen
(s.S. 20). Der Monoklonale Antikörper Trastuzumab ist
gegen die Bindedomäne des Rezeptors HER2 gerichtet,
blockiert dadurch die Bindung des Wachstumsfaktors
und schaltet das Wachstumssignal an die Zellen aus.
Zusätzlich werden die durch den Antikörper markierten
Zellen von der Immunabwehr des Körpers besser
erkannt als die normalen Krebszellen und abgetötet.
Daher ist die Prognose für Patientinnen mit metastasierendem Brustkrebs besser, wenn in einer Chemotherapie auch Trastuzumab eingesetzt wird. In klinischen Studien konnte gezeigt werden, dass der Prozentsatz an Patientinnen, die auf eine Chemotherapie
ansprachen, beim gleichzeitigen Einsatz von Trastuzumab deutlich höher lag.
Trastuzumab wird durch Kultur von gentechnisch veränderten Hamsterzellen (CHO-Zellen) hergestellt. Sein
überwiegender Anteil entspricht einem menschlichen
IgG1-kappa-Antikörper. Damit gehört Trastuzumab in
die Kategorie der chimären Monoklonalen Antikörper.
Impfstoffe
Bei der Impfstoffherstellung bietet die Gentechnik
einen großen Vorteil. Um Impfstoffe herzustellen, ist
beim klassischen Verfahren ein Umgang mit den Erregern nötig. Zwar handelt es sich vielfach um abgeschwächte und damit wenig infektiöse Varianten. Dennoch bleibt für die in der Herstellung beschäftigten
Personen, aber auch für die Geimpften ein Risiko. Es
können sich theoretisch Revertanten der Erreger
97
Biotechnologie und Markt
bilden, die wieder stärker infektiös geworden sind.
Und für bestimmte Personen, deren Immunsystem
geschwächt ist, kann selbst die abgeschwächte Version eines Erregers gefährlich werden. Beispielsweise
können pro Jahr weltweit einige Fälle von Kinderlähmung auf Impfungen zurückgeführt werden.
Die Hepatitis B gehört zu den schwereren Verlaufsformen einer Gelbsucht und kann in rund 0,5–1% der
Fälle tödlich enden. Auch werden nach einer Infektion
rund 5–10 % der Infizierten zu chronischen Trägern des
Virus. Bei diesen chronisch Infizierten können viele
Spätschäden bis hin zum Leberkrebs auftreten.
Des Weiteren lassen sich von bestimmten Erregertypen keine abgeschwächten Varianten bilden. Hier
müssen die Erreger selbst angezüchtet und dann vor
Verwendung als Impfstoff abgetötet werden. Das Risiko für die in der Herstellung beschäftigten Personen ist
offensichtlich. Für die Geimpften bleibt das Risiko
einer unvollständigen Abtötung des Impfmaterials.
Die Entwicklung eines Impfstoffes gegen das Hepatitis-B-Virus scheiterte zunächst daran, dass sich das
Virus nicht in Zellkultur züchten lässt. Da aber bei chronisch infizierten Personen große Mengen von viralem
Hüllprotein im Blut zu finden sind, konnte deren Blutplasma für die Isolierung des Hüllproteins genutzt werden. Die Verabreichung dieses Hüllproteins löste die
erhoffte Immunantwort aus. Damit konnte erstmals
ein Impfstoff gegen Hepatitis B hergestellt werden.
Aufgrund der limitierten Quelle stand dieser Impfstoff
aber nur in beschränktem Umfang zur Verfügung. Der
Umgang mit infektiösem Spenderblut stellte für die in
der Produktion beschäftigten Personen zudem eine
potenzielle Gefährdung dar.
Durch Anwendung gentechnischer Methoden konnte
man zunächst einmal lernen, welche Bestandteile der
Erreger für die Auslösung der Immunantwort beim
Menschen verantwortlich sind. Dabei handelt es sich
meist um Proteine, die bei Viren oder Bakterien an der
Oberfläche liegen und deshalb vom Immunsystem
erkannt werden können. Die Gene für diese speziellen
Proteine können nun aus dem Erbmaterial der Erreger
isoliert und in harmlose Wirtsorganismen übertragen
werden. Diese stellen dann auf ungefährliche Weise
das Protein her, mit dem die Immunantwort des Menschen gegen den Erreger ausgelöst werden kann. Das
Impfmaterial ist für die zu impfenden Personen damit
völlig harmlos.
Nicht nur für den Menschen werden Impfstoffe mit
biotechnischen Methoden hergestellt. Auch für Haustiere wie Schweine und Katzen stehen biotechnisch
hergestellte Impfstoffe zur Verfügung. Auch im Kampf
gegen die Tollwut wird seit vielen Jahren – vor allem in
Frankreich und der Schweiz – ein biotechnisch hergestellter Impfstoff verwendet.
Impfstoff gegen Gelbsucht (Hepatitis B)
Die große Durchseuchung der Weltbevölkerung mit
Hepatitis B wurde bereits beim α-Interferon kurz
erwähnt. Gelbsucht wird von unterschiedlichen Virustypen ausgelöst, deren wesentlichste als A, B und C
bezeichnet werden. Typ D kommt nur im Zusammenhang mit einer bereits vorhandenen Infektion mit dem
Typ B vor. Typ E findet sich hauptsächlich in Entwicklungsländern. Auch weitere Virustypen sind beschrieben worden.
98
Die genetische Information für das virale Hüllprotein
wurde isoliert und in Hefe exprimiert. Nun kann das für
den Impferfolg entscheidende virale Protein aus der
harmlosen Hefe gewonnen werden. Damit ist im Herstellprozess eine Gefährdung des Personals ausgeschlossen. Auch für die zu impfenden Personen
besteht keinerlei Gefahr mehr durch eventuell noch
vorhandene aktive Viren.
Der Hepatitis-B-Impfstoff wird heute auch in einer
Reihe von Kombinationsimpfstoffen angeboten, die
eine gleichzeitige Immunisierung gegen zwei oder drei
verschiedene Krankheiten erlauben.
Impfstoff gegen die Lyme-Krankheit
Bei der Lyme-Krankheit handelt es sich um eine oft
schwer zu diagnostizierende Infektion mit Bakterien,
und zwar mit Borrelia burgdorferi. Diese Bakterien, die
zu den so genannten Spirochäten gehören, werden
durch den Biss von Zecken auf den Menschen übertragen. Für das Jahr 1996 wurden in den USA rund 16.500
Fälle an eine zentrale Erfassungsstelle gemeldet.
Nach dem Zeckenbiss kann eine deutliche Rötung im
Bereich der Wunde, können Kopfschmerzen und
Unwohlsein ein erster Hinweis auf die Infektion
mit Borrelien sein. In einer ersten Krankheitsphase
Biotechnologie und Markt
klagen die Patienten häufig über Müdigkeit, Fieber
und Muskel- sowie Gelenkschmerzen. Die Symptome
ähneln daher stark denen einer Grippe und werden
häufig nicht richtig zugeordnet. Oft bleibt die Infektion
daher zunächst unbemerkt. Die zweite Krankheitsphase tritt meist erst nach Jahren ein und kann sich
in Form von chronischer Arthritis, von neurologischen
und anderen eher schweren Symptomen ausdrücken.
Den Namen hat die Krankheit von einem Ort in Connecticut, USA, wo sie – angeblich – erstmals diagnostiziert wurde. Allerdings wird das Krankheitsbild in der
medizinischen Literatur schon viel früher beschrieben.
Übrigens findet sich in der Bezeichnung des Erregers,
Borrelia burgdorferi, auch eine Namensanspielung,
und zwar auf den Arzt Willy Burgdorfer, der das Bakterium als Auslöser der Lyme Krankheit beschrieb.
Zur Herstellung des Impfstoffs wurde ein Erreger verwendet, der in den USA für das Auftreten der LymeKrankheit praktisch allein verantwortlich ist, und zwar
Borrelia burgdorferi sensu stricto. Aus dem Stamm ZS7
wurde ein Gen isoliert, das für die Bildung eines einzelsträngigen Proteins von 257 Aminosäuren Länge
codiert. Dieses Protein sitzt in der Membran von
B. burgdorferi und ist normalerweise noch mit Fettsäuren verbunden. Es wird daher als Lipoprotein klassifiziert und trägt die Bezeichnung OspA. Für die Herstellung der Vaccine wird es in einem harmlosen Stamm
des Bakteriums Escherichia coli exprimiert und daraus
aufgereinigt. Der Impfstoff wird Personen zwischen 15
und 70 Jahren verabreicht.
Diagnostik
Im Bereich der Diagnostik ist die Biotechnologie zunächst wieder wegen ihrer Leistungsfähigkeit bei der
Herstellung reiner Proteine von Bedeutung. Eine Vielzahl diagnostischer Verfahren beruht auf der Wechselwirkung von Proteinen miteinander. Der klassische Fall
ist die Reaktion eines Antigens mit einem Antikörper.
Im Fall einer Infektion bilden die Kranken in aller Regel
Antikörper gegen das infektiöse Agens. Das Vorhandensein solcher Antikörper im Blut ist daher Indiz für
das Vorliegen einer bestimmten Infektion. Mittels
Gentechnik können solche Antigene nun hergestellt
und zum Nachweis von Antikörpern aus dem Blut
potenziell infizierter Personen genutzt werden.
Bekannte Beispiele sind Diagnostika auf Hepatitis
oder Aids. (Auch für eine Reihe anderer Anwendungen
werden hochreine Antigene benötigt. Dass Antigene
z.B. auch als Impfstoffe eingesetzt werden können,
wurde bereits erwähnt.)
Die Biotechnologie gestattet aber auch den analytischen Zugriff auf die Erbsubstanz DNA selbst. Dabei
setzt die genetische Diagnostik prinzipiell schon bei
der mikroskopischen Beobachtung von Chromosomen
an. Veränderungen in Anzahl oder Gestalt der Chromosomen können den Verdacht nahe legen, dass ein
bestimmter Defekt zur Ausprägung kommen wird. Ein
bekannter Fall ist die Trisomie 21, bei der eine zusätzliche Kopie von Chromosom 21 in den Zellen vorhanden
ist, siehe Abb. S. 39. Die Folge ist das Down-Syndrom,
das auch unter dem Namen Mongolismus bekannt ist.
Die Verdoppelungen der Geschlechtschromosomen
können ebenfalls zu markanten Ausprägungen führen.
Ebenso kann das Fehlen oder der Austausch von Chromosomenarmen mit bestimmten Krankheiten in Verbindung gebracht werden.
In die molekularen Dimensionen stößt man vor, wenn
eine Krankheit mit einer auffälligen Anomalie in der
DNA in Verbindung gebracht werden kann. Beispielsweise ist die phänotypische Ausprägung einer Krankheit in einigen Fällen auf DNA-Ebene an eine veränderte Schnittstelle für ein bestimmtes Restriktionsenzym gekoppelt. Diese Schnittstelle kann dabei sehr
weit vom eigentlichen Gen entfernt liegen und mit diesem gar nichts zu tun haben. Beide Mutationen sind
irgendwann getrennt voneinander entstanden, doch
da sie relativ dicht zusammen liegen, werden sie fast
immer gemeinsam vererbt und treten daher fast immer
gemeinsam auf. Das Vorhandensein oder Fehlen einer
einfach zu detektierenden Restriktionsschnittstelle
liefert damit Aussagen über das Auftreten eines
defekten Gens. Allerdings kann die Restriktionsschnittstelle vom Gen durch Rekombinationsereignisse getrennt werden. Je weiter die beiden auseinander
liegen, desto häufiger wird das geschehen. Die Aussage ist daher mit einer gewissen Unsicherheit behaftet.
Die genetischen Unterschiede werden als Restriktionsfragment-Längen-Polymorphismen bezeichnet und
das Verfahren mit RFLP abgekürzt.
Die modernen Methoden gestatten es nun auch, ein
interessierendes Gen direkt zu untersuchen. Nach
einer Klonierung kann man die Sequenzen von Genen
99
Biotechnologie und Markt
aus gesunden und kranken Menschen miteinander vergleichen und Unterschiede erkennen. Auf diesem
Gebiet wurden in den letzten Jahren rasante Fortschritte gemacht. Im Kapitel 2.4 der Broschüre wird
darauf ausführlicher eingegangen. Aus der Vielzahl
von Genen, die heute für diagnostische Zwecke zur
Verfügung stehen, sollen die Gene für Chorea Huntington (Veitstanz), für Cystische Fibrose und für Brustkrebs exemplarisch genannt werden
.
Mit dem Wissen um die genaue Sequenz der Gene aus
Gesunden und Kranken werden sehr exakte Diagnosen
möglich. Dazu wird die zu untersuchende DNA aus Körperzellen, z.B. Blutzellen, isoliert und mit spezifischen
DNA-Sonden umgesetzt. Dies liefert Hinweise darauf,
ob die genetische Anlage für eine Krankheit gegeben
ist. Im Kapitel 2.11 wird das Verfahren näher erläutert.
Von technischen Problemen einmal abgesehen sind die
erhaltenen Aussagen eindeutig, allerdings nur für den
untersuchten Genort. In aller Regel können mit einer
genetischen Diagnose nur wenige, genau definierte
Genbereiche erfasst werden. Man kann dann aussagen, ob ein bekannter Gendefekt vorliegt oder nicht.
Andere Defekte im selben Gen sind dadurch aber nicht
ausgeschlossen. In einigen Fällen führen so viele
unterschiedliche Mutationen in ein und demselben
Gen zur Ausprägung der Krankheit, dass sie kaum alle
sinnvoll getestet werden können. In diesen Fällen
müsste man sich wohl mit einem Test auf die am häufigsten auftretenden Defekte begnügen. Wir stoßen
also immer wieder an neue Grenzen.
Vererbbare Mutationen können allerdings mit großer
Sicherheit ausgeschlossen oder bestätigt werden.
Hier kennt man die betreffende Mutation ja im Allgemeinen ganz genau. Der Zugewinn an Diagnoseschärfe zahlt sich in diesen Fällen besonders aus. Natürlich
ist der Gewinn an Lebensfreude bei den Menschen, die
eine mögliche Betroffenheit für sich ausschließen können, erheblich. Und bei denen, die einen vermuteten
Gendefekt bestätigt sehen, können präventive Maßnahmen in der Gewissheit durchgeführt werden, dass
sie tatsächlich notwendig sind. Auf die Probleme, die
sich aus den neuen Möglichkeiten der Diagnose ergeben können, wird an anderer Stelle dieser Broschüre
eingegangen (Kapitel 6.3).
Die genaue Kenntnis der Besonderheiten in der genetischen Ausstattung verschiedener Organismen führte
100
auch zur Entwicklung von DNA-Analysen, die nicht
unmittelbar einen diagnostischen Charakter haben
müssen. Hierzu gehört die Methode des DNA-Fingerprinting. Diese Methode erlaubt eine Identifizierung
einzelner Individuen anhand von Besonderheiten in
ihrer DNA. Wie der Name schon nahe legt, ist diese
Methode ebenso eindeutig wie ein Fingerabdruck. Sie
kann aber nicht nur beim Menschen eingesetzt werden, sondern ganz allgemein bei beliebigen Organismen. Deswegen findet die Methode heute in kriminaltechnischen Labors ebenso Anwendung wie bei Medizinern, Tier- und Pflanzenzüchtern oder in mikrobiologischen Labors.
Mittels des DNA-Fingerprinting können auch verwandtschaftliche Beziehungen geklärt werden. Ein
Vaterschaftsnachweis ist damit eindeutiger zu führen
als mit biochemischen Methoden. Bei der Identifizierung von unkenntlich gewordenen Unfallopfern, beispielsweise nach Flugzeugabstürzen, kann durch Vergleich der DNA eines Toten mit der von Verwandten
eine klare Aussage über die Identität getroffen werden.
Durch die Möglichkeit, kurze DNA-Fragmente mittels
der PCR-Reaktion millionenfach zu amplifizieren,
könnten DNA-Moleküle definierter Sequenz auch zu
reinen Markierungszwecken herangezogen werden.
Ein wenig DNA in der Ladung eines Öltankers verteilt
könnte in Zukunft womöglich eine einfache Zuordnung
bislang noch anonymer Ölteppiche erlauben. Wenngleich noch recht visionär, ist dies ein Beispiel für die
völlig neuen Anwendungen, die sich aus den Möglichkeiten der DNA-Analyse ergeben könnten.
DNA-Chips
Bei DNA-Chips, die im Jargon gelegentlich auch als
Biochips bezeichnet werden, handelt es sich um kleine
Plättchen aus einem Trägermaterial wie Glas oder
Kunststoff, auf die in einer Punktraster-Anordnung
viele verschiedene DNA-Oligonucleotide mit bekannten Sequenzen fixiert wurden. Die Herstellungsverfahren ähneln nicht ganz zufällig der Produktion von
Halbleiterchips für die Mikroelektronik. Man nutz fotolithografische Verfahren, um an exakten Positionen
auf dem Chip einzelsträngige DNA-Sequenzen durch
lichtgesteuerte Kupplungsreaktionen aufzubauen. Am
Ende enthält jede Position rund 10 Mio. Moleküle des
jeweiligen Oligonucleotids. Alternativ dazu wird eine
Biotechnologie und Markt
ähnliche Technik wie beim Tintenstrahldrucker eingesetzt, um winzige Tröpfchen der zur Oligonucleotidsynthese benötigten Reaktionslösungen auf kleinste
Flächen zu dosieren. Anfang 2000 waren DNA-Chips
erhältlich, auf denen 64.000 verschiedene DNAOligonucleotide auf einer Fläche von 1,28 x 1,28 cm
untergebracht sind.
Schon bald nachdem man 1996 das Genom der Bäckerhefe entschlüsselt hatte, dienten diese Informationen
zur Herstellung des „Hefe-Genchips“. Er enthielt die
Sequenzmotive von 6.116 Hefegenen, angeordnet als
mikroskopisches Punktraster auf einer Fläche von
18mm x 18 mm (s. Abbs.). Will man nun wissen, welche
Gene in einem bestimmten Zustand der Hefezelle aktiv
sind, macht man Folgendes: Man isoliert die mRNA,
markiert sie mit einem fluoreszierenden Farbstoff und
gibt sie auf den Chip. Da sich die mRNA oft schwer
handhaben lässt, wird in der Praxis üblicherweise die
entsprechende farbstoffmarkierte cDNA, also exakte
DNA-Kopien der mRNA-Moleküle, verwendet. Am
Prinzip des Experiments ändert sich dadurch aber
nichts.
Auf dem Chip binden sich die verschiedenen – jeweils
einzelsträngigen – cDNA-Moleküle gemäß den Hybridisierungsregeln spezifisch an die fixierten Oligonucleotide. Bei geeigneter Belichtung erscheint ein
charakteristisches Muster von farbig leuchtenden
Punkten, dem sich über die bekannten Sequenzen der
Oligonucleotide an den entsprechenden Positionen
entnehmen lässt, welche Gene „angeschaltet“ waren.
Gibt man die andersfarbig markierte cDNA eines anderen Zellzustands hinzu, erhält man ein weiteres Punktmuster, das die Genaktivität dieses Zustands widerspiegelt. Der Unterschied zwischen beiden Zellzuständen ist auf einen Blick zu sehen.
Im nebenstehenden Bild ist das für die Genaktivitäten
von Hefezellen bei Glucosemangel (rote Punkte) und
bei ausreichender Glucoseversorgung (grüne Punkte)
wiedergegeben. Man sieht sehr schön, dass in beiden
Zuständen ganz verschiedene Gengruppen „eingeschaltet“ werden. Auch die Gene, die in beiden
Zuständen aktiv sind, sind gut erkennbar. Sie erscheinen als gelbe Punkte, da Gelb die Mischfarbe aus
rotem und grünem Licht ist.
Wegen solcher Informationen wurden DNA-Chips zu
wertvollen Werkzeugen der molekularbiologischen
Grundlagenforschung, z.B. um das Zusammenspiel der
Gene in den aktiven Stoffwechselwegen in unterschiedlichen Zellstadien aufzuklären. Der Stoffwechsel auch der einfachsten Organismen ist ein kompliziertes Netzwerk von enzymatischen Reaktionen, die
über zahllose Zwischenprodukte (Metabolite) miteinander verknüpft sind (s. Abb. Schema). Je nach physiologischem Zustand werden unterschiedliche Stoffwechselwege benötigt, wobei die entsprechenden
Sätze von Genen aktiv werden. Die Aufklärung eines
solchen Metabolischen Netzwerks ist naturgemäß
schwierig. Mühsam mussten in der Vergangenheit einzelne Enzyme, bzw. deren Gene, gesucht werden, die
eine Rolle im betreffenden Zustand spielten. Dank der
DNA-Chips erhält man nun ganze Sätze von in Frage
kommenden Kandidaten, wodurch sich die Untersuchungen stark beschleunigen.
Einen großen Impuls verspricht die Biochip-Technologie
für die Antiinfektivaforschung. Untersucht man auf die
geschilderte Weise zwei eng verwandte Mikroorganismenstämme – der eine pathogen, der andere nichtpathogen – erhält man wertvolle Hinweise auf Gene bzw.
Proteine, die für den pathogenen Stamm charakteristisch
und möglicherweise essenziell sind. Sie sind natürlich
heiße Kandidaten für die Suche nach neuen Ansatzpunkten für antibiotische Wirkstoffe. Unter diesen Genen
befinden sich sehr wahrscheinlich auch Gene, die für den
Infektionsprozess benötigt werden. Kennt man sie, lässt
sich daraus auch vieles über die Mechanismen der Infektionen lernen und es können weitere Achillesfersen
der Krankheitserreger entdeckt werden.
101
Das Hefegenom
auf einen Blick:
Gen für Gen
übersichtlich
angeordnet.
Biotechnologie und Markt
Für die mikrobielle Diagnostik sind DNA-Chips bereits
verfügbar. Die hier verwendeten Chips tragen Oligonucleotide, die charakteristische DNA-Fragmente
von pathogenen Keimen repräsentieren und sich deswegen zum spezifischen Nachweis dieser Mikroorganismen aus Lebensmitteln, Abwasser oder Gewebeproben eignen. Ihr großer Vorteil ist die im Vergleich zu
traditionellen Methoden kurze Frist, in der das Untersuchungsergebnis vorliegt.
Die gleichzeitige Erfassung tausender charakteristischer Gene erlaubt auch die Präzisierung medizinischer
Befunde. So wurde ein Chip entwickelt, der 18.000 verschiedene Tumorgene repräsentiert. Er erlaubt es, zwei
sehr ähnliche Varianten des B-Zell-Lymphoms, einer
schweren Krebserkrankung, aufgrund ihrer verschiedenen Genaktivitätsmuster zu unterscheiden. Dabei stellte sich heraus, dass eine Form der Krankheit, die rund
zwei Fünftel der Fälle ausmacht, auf zytostatischer
Chemotherapie anspricht, die andere nicht.
Je mehr genetische Informationen aus den Genomprojekten gewonnen werden, desto mehr spezielle Chipanwendungen werden denkbar. Fast täglich findet man
neue Belege, dass kleine Abweichungen in einzelnen
DNA-Basenpaaren für das Zustandekommen von vielen Krankheitsbildern verantwortlich sind. Diese so
genannten Einzel-Nucleotid-Polymorphismen (engl.
single nucleotide polymorphisms, SNPs) tauchen im
ganzen Genom je nach Region in Abständen von
100–2.000 Basenpaaren auf. Für die schnelle Diagnose solcher individuellen „Krankheitsvarianten“ bieten sich DNA-Chips geradezu an. Hier verwendet man
Chips, die alle Kombinationen eines Oligonucleotids
repräsentieren. Bei einer vorgegebenen Länge von beispielsweise acht Nucleotiden, so genannten Octameren, erhält man theoretisch 48 = 65.536 verschiedene
Varianten. Das ist eine Zahl von Oligonucleotiden, die
sich noch gut auf einem Chip unterbringen lässt. Da
alle theoretisch möglichen Octamere auf dem Chip vorhanden sind, lässt sich prinzipiell die komplette
mRNA-Population entsprechend den darin vorkommenden 8er-Sequenzen auftrennen. Kleine Abweichungen zwischen zwei Individuen werden dann
anhand der charakteristischen Unterschiede in den
Hybridisierungsmustern erkennbar.
Mögliche Korrelationen der individuellen Polymorphismen-Muster mit der variierenden Wirksamkeit und
102
Verträglichkeit von Medikamenten sollen nach den
Vorstellungen der Genomforscher Informationen für
„individualisierte Therapien“ liefern. Durch die
genaue Kenntnis wichtiger Polymorphismen eines
Patienten soll es in Zukunft möglich sein, sofort die
individuell wirksamste Behandlung zu beginnen,
anstatt mit weniger geeigneten oder ineffizienten Verfahren wertvolle Zeit zu verlieren. Diese Forschungsrichtung, in der Genomforschung, molekulare Diagnostik und pharmazeutische Forschung zusammenfließen,
nennt sich Pharmacogenomics.
Der britische Wellcome Trust und zehn große internationale Pharmafirmen beschlossen 1999, gemeinsam
nach SNPs im Humangenom zu suchen. Dazu ist ein
SNP-Konsortium mit Zentrale in Chicago gegründet
worden. Die SNP-Daten werden in öffentlichen Datenbanken publiziert.
Produkte in der Landwirtschaft
Die modernen gentechnischen Verfahren wurden
zunächst an Mikroorganismen angewendet. Vor der
Ausdehnung auf höhere Organismen mussten noch
etliche experimentelle Hürden genommen werden.
Besonders Pflanzenzellen stellten ein Problem dar, da
sie von einer kräftigen Zellwand umgeben sind, die
den Transfer von DNA erschwert. Doch nach den
ersten erfolgreichen Versuchen und dank Fortschritten
bei der Regeneration von Zellen eröffneten sich auch
dem Agrosektor viele neue Möglichkeiten. Der
Schwerpunkt kommerzieller Entwicklungen lag dabei
auf der Herstellung von Kulturpflanzen, die gegen Herbizide und Insekten geschützt sind. Angebaut werden
diese transgenen Pflanzen überwiegend in den USA
und Kanada, einigen südamerikanischen Ländern und
China. Die Diskussion um den Anbau, vor allem aber
die Verwendung dieser Pflanzen ist besonders in Europa noch in vollem Gange.
Nachfolgend wird eine Reihe von Entwicklungen summarisch vorgestellt. Wie schon bei den Produkten aus
dem Pharmabereich wird auf die Angabe von Handelsnamen verzichtet.
Herbizidresistente Pflanzen
Mit dem Ziel einer Ertragssteigerung bei Kulturpflanzen sind nicht nur immer bessere Sorten gezüchtet
worden. Vielmehr wurden auch die Verfahren des
Biotechnologie und Markt
Anbaus ständig verbessert. Einen wesentlichen Anteil
daran hatte die Entwicklung von chemischen Substanzen, die das Wachstum von konkurrierenden Unkräutern unterdrücken können. Der intensive Einsatz dieser
Herbizide und anderer Pflanzenschutzmittel hatte aber
auch Schattenseiten. Die Substanzen erwiesen sich
zum Teil als so langlebig, dass sie ins Grundwasser
gelangen konnten und dieses belasteten.
Daher hat die Suche nach Wirkstoffen, die gegen ein
möglichst breites Spektrum an Unkräutern wirken und
schnell abbaubar sind, eine lange Tradition. Bei dieser
Suche fand man auch Substanzen, die aufgrund ihres
Wirkmechanismus alle Pflanzen angreifen, nicht nur
die Unkräuter. Trotz anderer Vorteile waren diese Stoffe, die Totalherbizide genannt werden, für einen Einsatz in der Landwirtschaft natürlich nicht brauchbar.
Mit ihrem Einsatz hätte man ja quasi das Kind mit dem
Bade ausgeschüttet und nicht nur die Unkräuter, sondern auch die zu schützenden Kulturpflanzen
bekämpft.
Die Verfügbarkeit gentechnischer Methoden bot hier
aber einen Ausweg. Nachdem man die genaue Wirkungsweise eines Totalherbizids verstanden hatte,
konnte man nach Wegen suchen, um die interessanten
Kulturpflanzen durch Einführung neuer Gene gezielt
vor der Wirkung dieses Totalherbizids zu schützen. In
bestimmten Fällen ließ sich das auch tatsächlich realisieren. Damit standen Kulturpflanzen zur Verfügung,
die den Einsatz eines Totalherbizides vertragen konnten.
Das Merkmal der Herbizidresistenz ist in den letzten
Jahren auf eine ganze Reihe unterschiedlicher Kulturpflanzen und Sorten übertragen worden. Einige dieser
gentechnisch veränderten Pflanzen, vor allem Mais,
Soja, Raps und Baumwolle, haben sich am Markt,
besonders in den USA, rasch durchgesetzt. Allerdings
ist diese Entwicklung im Agrobereich gerade bei uns in
Europa sehr kritisch diskutiert worden. Die Bedenken
in der Bevölkerung, die sich gegen einen großflächigen
Anbau gentechnisch veränderter Pflanzen und vor
allem gegen ihre Verwendung in der Nahrungs- und
Futtermittelindustrie richten, konnten nicht ausgeräumt werden. In Kapital 6.3 der Broschüre wird darauf eingegangen.
Die Vorteile der gentechnisch veränderten Pflanzen
werden darin gesehen, dass sie den Einsatz moderner,
gut abbaubarer Herbizide erlauben und je nach Bedarf
eingesetzt werden können. Eine Konkurrenz durch
Unkräuter ist meist nur in einer frühen Wachstumsphase für die Kulturpflanzen wirklich bedrohlich. Je nach
der Stärke des Befalls mit Unkräutern kann entschieden werden, ob und mit welcher Aufwandmenge an
Totalherbizid eingegriffen wird. Das ist bei Verwendung konventioneller Herbizide längst nicht immer
möglich, da diese oft prophylaktisch ausgebracht werden müssen.
Insektenresistente Pflanzen
Dem Insektenfraß fällt eine häufig unterschätzte
Menge an Ernteertrag zum Opfer. Pflanzen haben zwar
im Lauf der Evolution bestimmte Abwehrstoffe gegen
Insekten entwickelt. Den Kulturpflanzen wurden diese
Stoffe aber meist weggezüchtet, weil sie oft auch für
den Menschen unangenehm sind. In anderen Fällen,
wie z.B. beim bekannten Pyrethrum aus einer
Chrysanthemenart, werden die pflanzlichen Abwehrstoffe vom Menschen angewendet, allerdings nicht im
Pflanzenschutz. Mit Stoffen, die vom Pyrethrum abgeleitetet sind, schützt sich der Mensch schon seit langer
Zeit selbst vor lästigen Insekten.
Gefräßiger Geselle:
Dem Maiszünsler
fällt in manchen
Regionen ein Drittel
der Maisernte zum
Opfer.
Allerdings hat man auch für den Schutz von Pflanzen
ein Prinzip der Natur nutzbar machen können. Es
stammt aus dem Bereich der Interaktion von Mikroorganismen und Insekten. Bestimmte Bakterien haben
die Fähigkeit entwickelt, in Zeiten der Nahrungsknappheit in eine Art unbegrenzten Winterschlaf zu verfallen. Dazu umgeben sie sich mit einer festen Hülle, die
sie gegen die Umwelt abschirmt und vor Austrocknung
bewahrt. Einige Stämme von Bacillus thuringiensis,
einem besonders gut untersuchten Bakterium, produzieren nun in dieser Hülle ein Protein, das für die
103
Biotechnologie und Markt
Larven bestimmter Insekten sehr giftig ist. Man hat
sich diese Tatsache schon seit vielen Jahrzehnten
zunutze gemacht, indem die Bakterien in großen Mengen angezüchtet und als eine Art lebendes Insektizid
auf den Feldern versprüht worden sind. Da das Toxin in
seiner Wirkung sehr spezifisch ist, weist es in der
Natur nur sehr geringe Nebenwirkungen auf. Für den
Menschen ist das bakterielle Protein vollkommen
harmlos.
Mit der Verfügbarkeit gentechnischer Methoden ließ
sich nun ein anspruchsvoller Gedanke verwirklichen.
Statt das insektizide Protein auf dem Umweg über die
Bakterien an die Pflanzen zu bringen, konnte man das
Protein nach Übertragung des entsprechenden Gens
von den Kulturpflanzen selbst herstellen lassen. Wenn
die Insektenlarven nun mit dem Fraß beginnen, nehmen
sie mit dem Pflanzenmaterial auch das für sie toxische
Protein auf. Innerhalb kurzer Zeit sterben sie daran.
Mit diesem Vorgehen werden zum einen die Kosten bei
der Anzucht der Bakterien vermieden, vor allem aber
witterungsbedingte Verluste. Denn nach dem Aufsprühen der Bakterien auf die Pflanzen besteht die
Gefahr, dass ein kräftiger Regenguss die Hauptmenge
wieder herunterspült. Es gibt zwar Wege, dies so gut
es geht zu vermeiden. Aber die beste Möglichkeit
besteht natürlich darin, das Insektizid in der Pflanze
selbst zu haben.
wieder auftauchen. Bei der so genannten FlavrSavrTomate handelte es sich um eine Variante, bei der ein
in der Tomate ohnehin vorhandenes Gen durch gentechnische Verfahren nochmals in ihr Genom eingebaut worden ist. Diesmal allerdings „verkehrt herum“.
Das verkehrt herum eingebaute Gen sorgt dafür, dass
die Funktion des normalen Gens ausfällt, da dessen
genetische Information gar nicht erst in ein Protein
umgesetzt wird. Das zugrunde liegende Prinzip wird
häufig als „Anti-Sense-Prinzip“ bezeichnet.
Vom betreffenden Gen wird normalerweise das Enzym
Polygalakturonidase gebildet. Dieses greift die Wände
der Pflanzenzellen an und ist mit dafür verantwortlich,
dass die Tomaten weich werden. Wenn das Gen ausgeschaltet ist, halten sich die Tomaten nach der Ernte
länger und können daher über längere Strecken transportiert werden. Dies ist dann von Bedeutung, wenn
die Tomaten nicht unmittelbar am Entstehungsort verzehrt werden, sondern für die Versorgung weit entfernt
liegender Regionen gedacht sind.
Tomaten
Als Vorteil der neuen Variante wurde vor allem gesehen, dass die Tomaten am Stock reifen können und erst
dann geerntet und verschickt werden. Beim gängigen
Verfahren werden die Tomaten dagegen noch grün
gepflückt und die Reifung wird dann erst kurz vor der
Vermarktung durch eine Begasung mit dem Pflanzenhormon Ethylen beschleunigt. Die Hoffnung war, dass
sich der Geschmack der Tomate bei der gentechnisch
veränderten Varietät besser entfalten kann. Eine entsprechende Sorte wurde 1994 in den USA in den Markt
eingeführt und hat unter dem Namen FlavrSavr, was so
viel heißen soll wie Geschmacksretter, eine gewisse
Berühmtheit erlangt. Eine hohe Marktdurchdringung
wurde mit dieser Sorte allerdings nicht erreicht. Das
lag zum einen an der nicht besonders ausgeprägten
Qualität der verwendeten Ausgangssorte und auch
daran, dass die am Strauch gereiften Tomaten von den
auf harte, unreife Früchte ausgelegten Erntemaschinen geschädigt wurden. Die FlavrSavr-Tomate ist
heute nicht mehr am Markt. Das ihr zugrunde liegende
Prinzip wird aber derzeit in viele andere Varietäten
getestet.
Die nachfolgend genannten Produkte sind im Frühjahr
2000 nicht marktgängig. Sie sollen aber an dieser Stelle trotzdem erwähnt werden, weil sie in der Diskussion
um die Biotechnologie in der Landwirtschaft immer
Kaum weniger spektakulär war die Markteinführung
eines Produkts, das aus einer anderen gentechnisch
hergestellten Tomate gewonnen wird. Die Sorte dient
allerdings von vornherein nur zur Herstellung von
Insektenresistente Sorten mit entsprechenden gentechnischen Veränderungen gibt es hauptsächlich von
Baumwolle und Mais. Für den Erfolg und die Marktdurchdringung gilt Ähnliches wie bei den herbizidresistenten Varietäten. Das Prinzip hat sich seit 1996,
vor allem in den USA, gut bewährt. Die gentechnisch
veränderten Sorten haben bis zum Jahr 1999 einen
immer größeren Marktanteil errungen. Allerdings regt
sich gegen den Anbau und die Verwertung der Pflanzen, vor allem in Europa, Widerstand. Es bleibt daher
für die Zukunft abzuwarten, wie sich die entsprechenden Anbauflächen entwickeln werden.
104
Biotechnologie und Markt
Püree angebaut. Auf etwas andere Art als bei der
FlavrSavr-Tomate wird auch bei der für die Herstellung
von Püree verwendeten Tomate die Wirkung des Enzyms Polygalakturonidase ausgeschaltet. Die Tomaten
können – wie bereits gesagt – deshalb im reifen
Zustand länger am Strauch bleiben. Das ist für die Farmer ein großer Vorteil, da sie für die saisonal eng
begrenzte Ernte nun mehr Zeit haben und Perioden
schlechten Wetters besser toleriert werden können.
Auch fallen Ernteschäden bei der Herstellung von
Püree weniger stark ins Gewicht. Aufgrund der Vorteile konnte das Püree in England zu einem sehr vorteilhaften Preis in den Markt eingeführt werden und fand
zunächst reißenden Absatz. Das Etikett wies sehr auffällig darauf hin, dass gentechnisch veränderte Tomaten als Ausgangsprodukt für das Püree gedient hatten.
Aufgrund der in England 1999 einsetzenden heftigen
Diskussion um gentechnisch veränderte Lebensmittel
wurde das Produkt vom Markt genommen.
ab-, auf- und umzubauen, zu isolieren und zu identifizieren. Dabei werden gerade an diese Enzyme sehr
hohe Anforderungen hinsichtlich ihrer Reinheit
gestellt. Deshalb gehörten sie zu den ersten Produkten, die gentechnisch hergestellt wurden. Denn durch
gentechnische Verfahren können Enzyme in großen
Mengen und herausragender Reinheit zur Verfügung
gestellt werden. Tatsächlich sind manche Verfahren
heute nur deswegen möglich, weil die dafür notwendigen Enzyme gentechnisch sehr sauber hergestellt werden können. Für Forschungs- und Entwicklungslabors
wird heute eine breite Palette an solchen Enzymen in
jeweils relativ kleinen Mengen angeboten.
Aus der Medizin sind Enzyme nicht mehr wegzudenken. In zahlreichen diagnostischen Anwendungen liefern sie die Werte, auf die es ankommt. Auch bei vielen
therapeutisch eingesetzten Proteinen handelt es sich
um Enzyme. Beispiele hierfür sind die Faktoren der
Blutgerinnung, die bereits vorgestellt worden sind.
Technische Enzyme
Dem Querschnittscharakter der Biotechnologie entsprechend profitieren auch viele andere Bereiche
neben der Pharma und der Landwirtschaft von ihren
Entwicklungen. Nachfolgend soll schlaglichtartig auf
die Enzymherstellung eingegangen werden.
Bei Enzymen handelt es sich ganz allgemein um Proteine mit katalytischer Funktion. Als Katalysatoren
sorgen Enzyme dafür, dass wichtige chemische Reaktionen in lebenden Zellen überhaupt ablaufen können.
Enzyme sind die allgegenwärtigen Aktivisten der
Zelle. Enzyme arbeiten schnell, effizient und hochspezifisch. Kein Wunder also, dass sich der Mensch die
Fähigkeiten von Enzymen schon seit altersher nutzbar
gemacht hat. Zunächst waren sie die entscheidenden
Bestandteile lebender Organismen, die der Mensch
bei der Herstellung von Brot, Bier und Wein unbewusst eingesetzt hat. Später lernte man, Enzyme aus Zellen zu isolieren und ihre ganz spezifischen Fähigkeiten gezielt zu nutzen. Enzyme sind heute selbstverständliche Hilfsmittel in der Medizin, Biologie und
Chemie, aber auch in der Lebensmittel- und Waschmittelindustrie.
Für die Gentechnik sind Enzyme unverzichtbare Werkzeuge. Ohne Enzyme keine Gentechnik. Sie werden
benötigt um DNA zu schneiden, zusammenzufügen,
Daneben gibt es weitere große Anwendungsfelder für
Enzyme. In der Tierernährung werden sie ebenso eingesetzt wie bei der Lebensmittelherstellung. Als Beispiel für den ersten Fall soll die Phytase genannt werden, ein Enzym, das Phosphat aus pflanzlichen Quellen
verfügbar macht. Das Enzym kommt in den Mägen von
Wiederkäuern vor, nicht aber in Schweinen oder Hühnern. Diese Tiere können daher pflanzliches Phosphat
schlecht verwerten und dem Futter musste Phosphat
zugesetzt werden, um ein gutes Wachstum der Tiere zu
erreichen. Die gentechnische Herstellung der Phytase
nach der Klonierung des Gens in den Pilz Aspergillus
niger erlaubt es nun, die Phytase einzusetzen um das
pflanzliche Phosphat für die Tiere besser verfügbar zu
machen. Dadurch wird nicht zuletzt die Belastung der
Umwelt mit Phosphat erheblich reduziert.
Ein bekanntes Beispiel für den zweiten Fall ist Chymosin, das bei der Käseherstellung eine wichtige Rolle
spielt. Das ursprünglich aus Kälbermägen isolierte
Enzym steht nach der Klonierung des Gens in die Hefe
Kluyveromyces lactis in unbegrenzter Menge und
größerer Reinheit zur Verfügung. Ein Mangel an
Enzym, der angesichts steigenden Käsekonsums
befürchtet worden war, ist daher für die Zukunft auszuschließen. Auch gilt das aus dem Pilz isolierte Enzym
als koscher und die damit hergestellten Produkte können entsprechend ausgewiesen werden.
105
Biotechnologie und Markt
Große Chancen für Enzyme werden in der Chemie
gesehen. Sie eröffnen hier Alternativen zu bestehenden Syntheseverfahren. Die Herstellung von 7-ACA,
einem Zwischenprodukt bei der Herstellung von
Cephalosporin-Antibiotika, ist dafür ein Beispiel.
Durch gescheite Überlegung hat man bei der Synthese
enzymatische Verfahrensschritte eingebaut, die eine
umweltschonendere Herstellung des Zwischenprodukts 7-ACA erlauben. Der produktionsintegrierte
Umweltschutz, der mit diesem Beispiel kurz charakterisiert worden ist, wird zunehmend wichtig. Viele Firmen folgen der Geschäftsidee, Enzyme zu isolieren und
zu entwickeln, die für derartige industrielle Anwendungen interessant sein könnten.
Der größte Einzelmarkt für die so genannten technischen Enzyme – an deren Reinheit keine besonders
hohen Anforderungen gestellt werden müssen – ist
heute der Waschmittelsektor. Hier sind besonders Proteasen und Lipasen interessant. Proteasen sind generell in der Lage, Eiweiß abzubauen; Lipasen können
Fette abbauen. Das sind willkommene Eigenschaften,
wenn es darum geht, entsprechende Flecken aus der
Wäsche zu entfernen. Dabei stellt der Waschvorgang
selbst hohe Anforderungen an die Stabilität der Enzyme. Gentechnische Methoden bieten hier prinzipiell
die Möglichkeit, die Eigenschaften der eingesetzten
Enzyme an die Anforderungen des Waschvorgangs
anzupassen. Der Einsatz von Enzymen erlaubt es
heute, schon bei geringerer Waschtemperatur optimale Sauberkeit zu erreichen und damit Energie zu sparen.
Generell ist von Bedeutung, dass mittels biotechnischer Methoden die Ausbeuten an Enzymen stark
gesteigert werden können. Häufig werden die interessanten Enzyme von ihren originären Wirten nur in
geringen Mengen hergestellt. Nach Transfer der genetischen Information in andere Produzentenstämme
kann die Ausbeute deshalb oft dramatisch gesteigert
werden. Bei der Herstellung von Enzymen bedeutet
das ebenso häufig eine dramatische Einsparung an
Rohstoffen und Energie. Es ist keine Seltenheit, dass
ein biotechnisches Verfahren für die Produktion der
gleichen Enzymmenge im Vergleich zum klassischen
Verfahren weniger als ein Zehntel der Ressourcen verbraucht.
106
Durch die Kombination von Gentechnik mit neuen Verfahren der Proteinbiochemie bis hin zu Proteinkristallographie und Röntgenstrukturanalyse hat man faszinierende Einblicke in die Wirkweise von Enzymen
erhalten. Aus der räumlichen Struktur der Enzyme können viele ihrer Eigenschaften erklärt werden. Dank der
gewaltigen Rechnerleistung moderner Computer lassen sich Proteinstrukturen bis hin zu einzelnen Atomgruppen auflösen. Der Forscher bewegt sich am Bildschirm von einer Aminosäure zur nächsten und kann
überlegen, was für Auswirkungen ein Austausch von
Aminosäuren auf die Eigenschaften des Enzyms haben
wird. Mit den Methoden der Gentechnik kann ein solches verändertes Molekül dann recht schnell hergestellt und die Voraussage der Kristallographen überprüft werden. In diesem Wechselspiel kann man sich
Proteine für bestimmte Anwendungen förmlich
maßschneidern. Man spricht dann auch tatsächlich
von maßgeschneiderten Proteinen. Das Verfahren, bei
dem gezielt einzelne Aminosäuren in Proteinen ausgetauscht werden, bezeichnet man als ortsspezifische
Mutagenese.
Etwas weniger gezielt, aber außerordentlich erfolgreich orientiert sich die Wissenschaft auch an den
Prinzipien der Natur. Das zuerst von Darwin bei der
Entwicklung von Lebewesen erkannte Zusammenspiel
von Mutation und Selektion wirkt letztlich ja auf der
Ebene der Moleküle; man spricht hier deshalb auch
von „Molekularer Evolution“. In einem bemerkenswerten dynamischen Gleichgewicht von Mutagenese und
Selektion entstand seit dem Beginn des Lebens eine
große Vielfalt natürlicher Enzyme, die einzelne chemische Reaktionen hochspezifisch katalysieren und einzigartige Funktionen ausüben können.
Heute nutzt man die Mechanismen der Evolution im
Labor, um in möglichst kurzer Zeit Proteine mit speziellen Eigenschaften zu erzeugen. Zum Beispiel möchte
man Fett spaltende Enzyme, so genannte Lipasen, entwickeln, die auch unter den rauen Bedingungen in der
Waschmaschine funktionieren. Oder man sucht Enzyme, die im Gegensatz zu den natürlichen „Vorfahren“
auch in organischen Lösemitteln aktiv sind, um damit
technisch interessante Reaktionen zu katalysieren.
Manchmal sollen Enzyme auch andere Substrate als
die natürlichen umsetzen.
Biotechnologie und Markt
Die Vorgehensweise der evolutiven in-vitro-Proteinoptimierung ist im Prinzip ganz einfach und der natürlichen Evolution abgeschaut: Man erzeugt eine große
Zahl von mutierten Varianten eines Proteins, dessen
Eigenschaften man abwandeln möchte. Leistungsfähige Auswahlverfahren (das so genannte Screening) dienen dann zur Selektion der Eiweißmutanten, deren
Eigenschaften den gewünschten am nächsten kommen. Oft muss man sie erneut mutieren und selektieren, um noch bessere Annäherungen zu erreichen.
Diese Zyklen lassen sich theoretisch so oft wiederholen, bis das gewünschte Ziel dieser „Gerichteten Evolution“ erreicht ist.
In der Praxis hat sich zur in-vitro-Erzeugung von
Mutanten-Bibliotheken auch das „Gen-Vermischen“
(engl. gene shuffling) bewährt (siehe Abb.). Ausgangspunkt ist ein ganzer Satz von zufallsmutierten oder
natürlichen Varianten eines bestimmten Gens. Diese
Gensequenzen werden enzymatisch in kleine Stücke
zerschnitten, die Fragmente zusammengegeben und
wie Spielkarten durcheinander gemischt. Durch PCRReaktionen („reassembly PCR“) lassen sich an den
Enden überlappende Fragmente wieder zu kompletten
Gensequenzen „zusammenkleben“. Man erhält so entsprechend den zahlreichen unterschiedlichen Fragmentkombinationen viele neue Genvarianten. Sie werden in Wirtsorganismen kloniert, die zusammen als
„Klon-Bibliothek“ bezeichnet werden.
Varianten des Eiweiß spaltenden Enzyms Subtilisin,
die auch bei niedrigen Temperaturen (23 °C) aktiv sind,
erzeugte man aus 26 Genmutanten eine Bibliothek von
654 Klonen. Als man sie auf weitere Eigenschaften
wie die Stabilität oberhalb von pH 10, „Lösemittelbeständigkeit“ und Temperaturstabilität untersuchte,
fand man sogar Kombinationen vorteilhafter Eigenschaften; z.B. Enzyme, die sowohl pH 10 vertrugen als
auch bei 23 °C gut funktionierten!
Mittlerweile sind zahlreiche evolutiv optimierte Enzyme auf dem Markt, z.B. Peroxidasen, die das Verfärben
von Wäschestücken verhindern sollen, oder AlphaAmylasen, die zur Stärkehydrolyse und Papierherstellung dienen. Eine nach diesen Prinzipien optimierte
Lipase kann sowohl hohe Detergenzienkonzentrationen als auch hohe Temperaturen vertragen und ist deswegen in vielen Waschmitteln vorhanden.
Die Leistungsfähigkeit der
Methode ist erstaunlich: So
hat man beispielsweise in
einem der ersten Experimente
aus vier ß-Lactamasen unterschiedlicher Organismen eine
neue ß-Lactamase erzeugt, die
ihrem bakteriellen Wirt eine
32.000fach höhere Resistenz
gegen ß-Lactam-Antibiotika
verlieh. Nun sind Bakterien,
die resistenter gegen Antibiotika sind, nicht gerade das
sinnvollste Ziel für die evolutive in-vitro-Optimierung, aber
auch bei technisch einsetzbaren Enzymen gibt es mittlerweile viele beeindruckende
Erfolge: Bei der Suche nach
Gene shuffling:
Unterschiedliche
Versionen eines
Gens können in
vitro zu zahlreichen
neukombinierten
Varianten
„vermischt“ werden,
deren Produkte
interessante neue
Eigenschaften besitzen können.
107
Herunterladen