Wissenschaftliche Nachrichten Nr. 138, 1/2010

Werbung
GRUNDWISSENSCHAFTLICHE PROBLEME
Mag. Dr. Robert Hofstetter
Wirtschafts- und Wissenschaftsethik
Prof. Dr. Walter Weis, Klosterneuburg
Die Wissenschaft und ihre Lehre sind frei.
ÖSTERREICHISCHES STAATSGRUNDGESETZ ART. 17
Was der Mensch ist,
das ist er durch die Sache,
die er zur seinen macht.
KARL JASPERS
Es ist letztlich das Bewusstsein der Menschen,
das ihr Sein bestimmt.
THEODOR FAULHABER
Der Auftrag
Viktor E. Frankl hat es wunderbar ausgedrückt: „Je
mehr er (der Mensch) sich selbst vergisst, in der Hingabe an eine Aufgabe oder an einen anderen Menschen,
desto mehr wird er seinem eigenen Menschsein gerecht.“1 Und Frankl fährt fort: „Menschsein ist nicht zuständlich, sondern gegenständlich orientiert; es ist nicht
an den inneren Zuständen interessiert, sondern an Gegenständen draußen in der Welt.“2 Das hat auch Martin
Heidegger schon gewusst, als er vom „In-der-Weltsein“ des Menschen gesprochen hat, und das hat auch
Max Scheler einbekannt, als er den Menschen als „weltoffen“ bezeichnet hat. Damit ist die Aufgabe des Menschen gut umrissen: Er hat weltoffen zu sein und sich
mit den Gegenständen der Welt zu befassen. Das ist ein
enormer Auftrag – und eine ungeheure Verantwortung:
sich die Erde untertan zu machen nämlich. Was bedeutet das überhaupt? Doch wohl die Rechtfertigung, sich
technisch betätigen zu sollen – oder zu müssen, denn
ohne Hilfsmittel (= Technik) kommt der „nackte Affe“
wohl nicht weit.
Mehrdimensionale Mitwelt und Fiktionen
Wir sollen, ja wir müssen also umgehen mit der Welt,
soweit sie die unsere ist. Aber wie?
„Unsere Welt“ ist aber nicht bloß Um-Welt, sondern
weit mehr, nämlich auch Mit-Welt! Wirtschaftstreibende und Wissenschafter haben daher die ethische Verpflichtung, eine Welt, die mit uns ist, zu erhalten und
pfleglich zu behandeln: nicht nur für uns, sondern auch
für die Welt, die ja die unsere ist bzw. uns übergeben
worden ist.
Viktor Frankl beklagt in diesem Zusammenhang, wie
wir mit unserer Welt umgehen – und er hat fürs erste dabei die Wissenschaft im Visier. Nach Frankl muss
nämlich der Wissenschafter die Multidimensionalität
der Welt, also ihre Vielschichtigkeit und Vernetztheit,
um zielgerichtet Wissenschaft betreiben zu können,
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
ausklammern. Da jede Wissenschaft analytisch, zerlegend und kausal ausgerichtet ist, muss der Wissenschafter – um erfolgreich zu sein – eindimensional forschen und die Mehrdimensionalität der Realität vernachlässigen.
Der Wissenschafter errichtet also eine Fiktion – ganz
im Sinne Hans Vaihingers, der als Begründer des Fiktionalismus in seiner „Philosophie des Als-Ob“ forderte, dass der Forscher bewusst eine falsche, aber zweckmäßige Annahme machen müsse, um sein Ziel verfolgen und erreichen zu können. Nach Vaihinger sind alle
Erkenntnisse von Fiktionen durchsetzt: Das menschliche Vorstellungsgebilde der Welt sei „ein ungeheures
Gewebe von Fiktionen voll logischer Widersprüche“.
Der Fiktionalismus ist ein erkenntnistheoretischer
Standpunkt, nach dem die meisten Erkenntnisse und
Überzeugungen als Fiktion, also als Erdichtung, als bloße Annahme anzusehen seien. Wissenschaftstheoretisch ist eine Fiktion eine Annahme, die grundsätzlich
unmöglich und unbeweisbar ist, aber doch zur Klärung
von philosophischen und wissenschaftlichen Sachverhalten nützlich sein kann. Später spricht man dann von
„Modellen“, die ja auch immer eine Fiktion sind (z. B.
das Atommodell, aber auch die Elementarteilchen,
etwa das Photon).
Nun, das wäre ja noch hinnehmbar – wenn es zum
Ziel führt? Abstraktionen, oft willkürliche Zusammensetzungen, Vereinfachungen, Typisierungen, Schematisierungen usw. sind das Rüstzeug, mit dem der Wissenschafter an seine Mitwelt herangeht und hofft, richtige
Denkresultate und Erkenntnisse daraus zu ziehen.
Nach Viktor Frankl ist ein solches Vorgehen daher nicht
nur legitim, sondern sogar obligat. Aber, sagt Frankl:
„Der Wissenschafter selbst sollte auch wissen, was er
tut; er sollte sich dessen bewusst sein, dass er es mit je
ein-dimensionalen Projektionen zu tun hat, dass er also
ver-einfacht.“3
Eindimensionalität als Modell
Wissenschaft ist immer Vereinfachung. Die Wissenschafter bilden mit ihren Theorien nie die Natur ab, wie
sie ist, sondern wie sie diese sehen bzw. wie sich die
Natur nach der Sicht (= Theorie) des Forschers verhalten soll. Man nennt ein solches Herangehen an die Natur auch modellhaft. Wir haben stets nur Modelle von
der Natur – und die halten wir gerne und leider für der
1 Frankl, Wissenschaft und Sinnbedürfnis, in: conturen 3/4. 2005,
S. 183 f.
2 A.a.O., S. 184.
3 A.a.O., S. 184.
3
Wirklichkeit entsprechend, ja schlimmer noch: Wir halten sie für die Wahrheit.
Frankl beklagt daher: „Wenn er (der Wissenschafter)
schon alles vereinfacht, vereinfachen muss – dann wäre
zu wünschen, dass er wenigstens nicht auch noch alles
ver-all-gemeinert.“4
Mit anderen Worten: Frankl meint, dass Wissenschafter dazu neigen, ihre Theorien (also ihre Bilder bzw.
Modelle) zu verallgemeinern und „aus partikulären Befunden generelle Schlüsse zu ziehen“.
Eine solche Generalisierung kann nach Frankl gefährlich sein – und für die Mitwelt mitunter schädlich.
Ein Beispiel wären die rigorosen Wildbachverbauungen und Regulierungen des letzten Jahrhunderts. Mit
der Donauregulierung unter Kaiser Franz Josef wurden
zwar die Überschwemmungen im Raume Wien und
Donau abwärts relativ gut eingedämmt – aber es wurde
auch der Grundwasserspiegel des gesamten Marchfeldes mit der Zeit sosehr abgesenkt, dass rund hundert
Jahre später der Marchfeldkanal gebaut werden musste,
um wieder Wasser auf die mittlerweile versteppten Felder zu bringen.
Weltweit tragischere Dimensionen hatte und hat allerdings die Erfindung der FCKW (Fluorchlorkohlenwasserstoffe), jener Chemikalien, die unter anderem als
Treibmittel für Spraydosen und Kältemittel für Kühlschränke verwendet wurden: Das Ozonloch war die
Folge – mit unzähligen Hautkrebserkrankungen der
Menschen, vor allem auf der südlichen Hemisphäre,
und noch immer nicht ganz verstandenen und abschätzbaren Einflüssen auf das weltweite Klima.
Reduktionismus
Wenn wir – im Computerzeitalter – versucht sind, das
menschliche Gehirn mit einem Computer zu vergleichen, so mag das legitim sein und zum Verständnis der
Funktion unseres Gehirns beitragen. Wenn wir aber
das Gehirn auf die Funktion eines Computers reduzieren (!), so bedeutet das einen Verzicht auf eine ganze
Menge anderer menschlicher Dimensionen.
Obwohl viele Computerexperten fieberhaft nach der
AI (artificial intelligence) forschen, und der weltbekannte Regisseur Stanley Kubrick in seinem Epos 2001
– Odyssee im Weltraum die AI schon für das Jahr 2001
(sic!) prognostiziert hatte: Es gibt noch keinen einzigen
intelligenten Computer! Und schon gar keinen mit
Angst und Mordlust wie HAL, der Bordcomputer des
gegenständlichen Raumschiffes in Kubricks Film. (HAL
ist übrigens ein „versteckter“ Hinweis auf das Akronym
IBM – jeweils minus ein Buchstabe.)
Von den menschlichen Dimensionen der Kunst, des
religiösen Bedürfnisses, des ethischen Sollensanspruchs,
der Liebe, Hoffnung, des Glaubens usw. wird bei einem
solchen reduktionistischen Modell von vornherein abgesehen.
Der Mensch wird bei generalisierender Anwendung
eindimensionaler Theorien simpel entmenscht.
Diktaturen – vor allem faschistische – gehen da ganz
rigoros und von jeglichem Ethos unbeeinflusst vor: Nur
das eigene Volk zählt und hat Wert – alle anderen
Menschen sind minderwertig, Feinde, ja nicht einmal
menschlich.
Schon die alten Griechen hingen diesem reduktionis-
4
tischen Denken an: Sie nannten alle, die nicht griechisch sprachen, „die Stammelnden“: barbari. Unser
Vorname Barbara kommt davon. Auch die Eskimos
nannten sich „Menschen“ – in ihrer Sprache Inuit. Für
die Indianer waren es „Eskimos“ – die Rohfleischesser,
eine Abwertung und Entwürdigung. Der „politisch Korrekte“ spricht daher heute nicht mehr von „Eskimos“.
Jeder Folterer entmenscht sein Opfer. Jeder Killersoldat (z. B. die Marines, die Eliteeinheit der US-Armee)
darf in seinem Gegner gar keinen Menschen mehr sehen: Sonst hätte er eventuell Hemmungen, das zu tun,
was er tun – muss: Weil es ihm anbefohlen ist.
Reduktionismen sind immer gefährlich – und unethisch!
Dennoch reduziert (!) jede Hierarchie ihre Basis zu
bloßen Befehlsempfängern und Vollstreckern bzw.
Ausübenden der Idee – und vor allem der Ziele! – der
Hierarchiespitze.
Reduktionismus reduziert das untersuchte Objekt auf
ein „Nichts-als“. Der Mensch ist nichts als ein biochemischer Mechanismus; der Soldat ist nichts als eine Tötungsmaschine; der Beamte ist nichts als ein Befehlsempfänger; die Rohstoffe sind nichts als Ressourcen,
deren wir uns bedienen; der Staatsbürger ist nichts als
ein Steuerzahler (Wähler, Werbeziel, Medienkonsument, Pensionseinzahler, Verkehrsteilnehmer etc.).
Das schlechte Gewissen
Alfred Nobel, der Erfinder des Dynamits, hat 1895
wegen seiner Gewissensbisse, der Welt eine solche
Waffe hinterlassen zu haben, den Nobelpreis gestiftet.
Dieser wurde 1901 das erste Mal vergeben – 1905 erhielt Bertha von Suttner, zu Lebzeiten Alfred Nobels
seine Privatsekretärin, für ihren Einsatz für den Frieden
den Friedensnobelpreis. Der Nobelpreis wird für verschiedene Wissenschafts- und Kulturdisziplinen (nicht
aber für Philosophie) verliehen.
Manche seiner (Friedens-)Preisträger waren und sind
umstritten … Es gibt daher seit 1980 auch den von Jakob von Uexküll gegründeten Alternativen Nobelpreis, der sich noch mehr dem ethischen Ursprungsanliegen Alfred Nobels verpflichtet fühlt, nachdem der offizielle Nobelpreis – zumindest in der Sicht der „Alternativen“ – sich von der Ursprungsidee seines Gründers
entfernt hat.
Der österreichische Physiker und Schöpfer der Wellenmechanik, Erwin Schrödinger, beklagte: „Am
schmerzlichsten ist das völlige Schweigen unseres naturwissenschaftlichen Forschens auf unsere Fragen
nach dem Sinn und Zweck des ganzen Geschehens.“
Und Albert Einstein monierte: „… das bloße Denken
kann uns nichts mitteilen über die letzten und fundamentalen Ziele ... Hier stehen wir einfach den Grenzen
der rationalen Erfassung unseres Daseins gegenüber.“
Ist Ethos also rational nicht erfassbar? Überschreitet
ethisches Verhalten in der Wissenschaft die „bloße“
Vernunft?
Einstein, an sich ein überzeugter Pazifist, entwarf
Flugzeugtragflächen, verbesserte die Torpedotechnik
und entwickelte den Kreiselkompass weiter – alles Erfindungen, die primär die Militärs nutzten. Allerdings
darf man nicht vergessen, dass dies während des
4 A.a.O., S. 184.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
2. Weltkriegs passierte, als es darum ging, dem Faschismus Einhalt zu gebieten.
Einstein war zwar nicht direkt am Bau der Atombombe beteiligt, aber er gab durch einen Brief an den amerikanischen Präsidenten Roosevelt den Anstoß zu ihrer
Entwicklung. Wohl unter dem Eindruck von Hiroshima
und Nagasaki rief er nach 1945 immer wieder zum Frieden auf. So unterschrieb er nur zwei Tage vor seinem
Tod das Einstein-Russell-Manifest gegen einen drohenden Atomkrieg als Folge des „Kalten Krieges“.
Das schlechte Gewissen vieler Forscher lässt natürlich die Frage entstehen, wieweit wissenschaftliche
(Forschungs-)Tätigkeit wertfrei ist – und ob sie das
überhaupt sein kann.
Die Finanziers
Wenn man ins Kalkül zieht, dass moderne Forschung
immenses Geld kostet und es vornehmlich die Industrie
ist, die hier als Finanzier in Frage kommt, ist der Verdacht nicht von der Hand zu weisen, dass den Geldgebern die Ziele des hoch dotierten Forschens nicht ganz
egal sein können. Wenn man weiter ins Kalkül zieht,
dass vor allem die naturwissenschaftliche Grundlagenforschung (hier vor allem die Elementarteilchenphysik)
gigantische Experimentieranlagen (z. B. Synchrotrone)
benötigt, die nicht einmal mehr ein Staat alleine finanzieren könnte (oder will), kann man sich vorstellen,
dass Ergebnisse nicht mehr dem Zufall überlassen bleiben können, sondern sich „Erfolg“ einstellen muss.
Auch die Politiker, die hier teilweise mit Steuergeldern die Forschung voranzutreiben versuchen, erwarten sich Ergebnisse. Diese müssen zwar nicht immer
nur für das Militär direkt oder indirekt anwendbar sein
(z. B. das GPS, das Global Positioning System), aber sie
müssen auf alle Fälle kommunizierbar und somit verstehbar oder zumindest in ihren Aussagen und Anwendungen nachvollziehbar sein. Daher wird vor allem
Forschung gefördert, die „handfeste“ und umsetzbare
Ergebnisse zeitigt – also in der Praxis (= industriell) verwertbar ist.
Da aber auch die einschlägigen Magazine und Fachmedien ohne Subventionen nicht gut auskommen,
müssen auch sie bevorzugt über solche Forschungsergebnisse berichten. So ist die besorgte Frage sicherlich
nicht unangebracht, ob damit nicht auch der Trend des
Forschens direkt oder indirekt seine (kommerzielle)
Richtung erhält.
Kybernetik, Informatik, Kommunikationswissenschaften und die Nanotechnologie sind Forschungsgebiete, an denen die Militärs interessiert sind. Sie gelten
daher heute als Zukunftswissenschaften – und sind
hoch dotiert.
Auch für die Quantenteleportationsexperimente des
Wiener Physikers Anton Zeilinger herrscht reges Interesse – vor allem von Seiten der Kryptologie, der Verschlüsselungswissenschaft, da mithilfe der von Zeilinger technisch angewandten Methode ein Geheimcode
vorliegt, der nicht entschlüsselt werden kann.
Es wird wohl nicht von der Hand zu weisen sein, dass
an solchen Entdeckungen oder Entwicklungen großes
internationales und finanzielles Interesse besteht. Dazu
muss angemerkt werden, dass der einzelne Forscher
und sein Team (heute gibt es keine Einzelforscher
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
mehr, sondern nur mehr Teams; einer allein könnte –
zumindest auf dem Gebiete der Experimentalphysik –
nichts mehr erforschen!) mit an Sicherheit grenzender
Wahrscheinlichkeit der Sache wegen die Forschungen
betreiben: und dies primär aus wissenschaftlichem Interesse. Für den späteren technischen oder politischen
Einsatz der erfolgten Entdeckungen oder Erfindungen,
aber auch schon von Formeln und Theorien (sic Einsteins Äquivalenzformel E = m × c 2 als Voraussetzung
für den Bau von Atombomben bzw. seine beiden Relativitätstheorien) in der Praxis sind sie letztendlich nicht
verantwortlich.
Ver-rückte Welt
Erich Fromm, deutscher – später mexikanischer –
Sozialpsychologe humanistisch-ganzheitlicher Prägung, hat in einem seiner Hauptwerke Haben oder Sein
auf den wesentlichen Unterschied zwischen den Existenzformen des schöpferischen Seins und des entfremdenden Habens hingewiesen.
Später meinte er, die Welt sei ver-rückt, der Mensch
habe sich von seinem Ursprung entfernt, habe seine Position gegenüber seiner ursprünglichen Herkunft eben
ver-rückt. Seine Weltanschauung sei aufgrund dieser
Ver-rückung heute eben verrückt.
Wenn man die Wirtschaft und ihr Treiben heute Revue passieren lässt, weiß man, dass Fromm Recht hatte.
Was heute unter dem Stichwort „Globalisierung“ weltweit passiert, lässt keinen – wirtschaftlichen – Stein
mehr auf dem anderen. Über Jahrhunderte, ja gar Jahrtausende eingespielte Wirtschaftsmethoden, angefangen von der Selbstversorger-(Subsistenz-)Wirtschaft bis
hin zur ökosozialen Marktwirtschaft des postindustriellen Zeitalters, werden in unserer Zeit der „Global Player“, der „Multis“ und der internationalen Finanztransaktionen (Finanzblasen-Wirtschaft) bedenkenlos über
Bord geworfen. Alles ist ver-rückt. Die Schere zwischen
Arm und Reich geht immer weiter auf – nicht nur weltweit, sondern auch innerhalb der (bisher zumindest)
wohllebenden Gesellschaften der Industrienationen.
Was ist passiert?
Vor allem ist passiert, dass die in Europa mühsam errungene soziale Marktwirtschaft den Zielen des Neoliberalismus geopfert wurde. Ob die EU bei dieser Linie
bleibt, ist zur Zeit die große Streitfrage zwischen den
politischen Richtungen in Europa. Dass 2005 die neue
EU-Verfassung von den Franzosen und den Niederländern abgeschmettert und 2007 in Lissabon durch einen
„Vertrag“ ersetzt worden ist, der beinahe an den Iren
gescheitert wäre, mag als Indiz dafür gewertet werden,
wie sehr die Bürger der Meinung sind, die Wirtschaftspolitik der EU richte sich nicht mehr nach dem Wohl
seiner Bürger, sondern eher nach den Interessen des Finanzkapitals.
Ist das Sich-die-Erde-untertan-Machen der Bibel allzu einseitig ausgelegt worden? Wieso kann sich die
Staatengemeinschaft nicht zu einer verbindlichen Reduktion von Treibhausgasen durchringen? Wieso werden den Öl- und Erdgasinteressen der westlichen Ölmultis – und der ihren Zielen folgenden US-Regierung –
einerseits und den politischen Interessen Russlands andererseits (z. B. über die verstaatlichte Gasprom) ganze
Länder geopfert?
5
Der Mittelpunktswahn
Primär hält jeder das, was er selbst wahrnimmt, für
wahr – und auch gleich für die absolute Wahrheit, mit
der alle beglückt werden müssten. Je mehr Möglichkeiten für diese Beglückung zur Verfügung stehen, desto
heftiger erfolgt die „Missionierung“ – sei es mit (vorerst)
wirtschaftlicher Erpressung (Gas-„Krieg“ Russland –
Ukraine) zur politischen Gefügigmachung, sei es mit
Waffengewalt wie in Jugoslawien, Afghanistan und im
Irak-Krieg. Hoimar von Ditfurth, ein Wissenschaftspublizist, hat das „Mittelpunktswahn“ genannt.
Dogmatiker, Fundamentalisten, Fanatiker, Extremisten aller Couleurs, Nationalisten und Chauvinisten: sie
alle stehen unter diesem Mittelpunktswahn.
Georg Wilhelm Friedrich Hegel hatte schon vor
150 Jahren den philosophischen Grund für solches Verhalten gefunden: „Der Wahnsinn (!) des Eigendünkels
besteht darin, auf die Barrikaden zu gehen, weil man
das Bewusstsein der anderen für ein falsches Bewusstsein hält.“
In der Politik und der Wirtschaft hat dieser „Eigendünkel“ fatale Folgen. Was passiert, wenn ein Manager,
ein Arzt, ein Beamter, ein Selbstständiger, ein Angestellter oder eben ein Politiker – eine ganze Regierung – so
denkt?
Wie weit sind wir von unserem Ur-Sprung ver-rückt?
Kann man das noch als Fort-Schritt bezeichnen, auf
den wir so stolz sind – oder ist es nicht eher ein FortSprung? Und zwar im wahren Sinne des Wortes: ein
Sprung fort vom ursprünglich Gemeinten!
Lebt nicht ein jeder Wirtschaftstreibender in der TeilWelt seines Berufes und seiner Interessen und sieht diese als Mittelpunkt all seines Tuns und Handelns an? Es
gibt Rechtsanwälte, die in der Welt ihrer Paragraphen
aufgehen; die psychologischen oder familiären Folgen
ihrer Beratung sind ihnen egal. Hauptsache die Honorarnote wird bezahlt. Für einige Chirurgen ist ein Patient z. B. nur „der Blasenkrebs von Zimmer 15“ – den
Menschen dahinter wollen sie gar nicht mehr sehen; für
manche Journalisten zählt nur eine „gute Story“ – ob die
Ehe oder das Leben des der Journaille Geopferten
draufgeht oder nicht, ist sekundär oder überhaupt ohne
Belang. Die mit einem Projekt Beschäftigten haben nur
ihr Ziel vor Augen – sie gehen darin oftmals sogar bis
zur Selbstaufopferung auf. Bei großindustriellen oder
politischen Interessen bleiben die Folgen für die Umwelt (z. B. der Klimawandel) oder die Wirtschaft (etwa
das längst eingetretene Greißlersterben) oder die Menschen eines Landes (Arbeitslosigkeit durch Technologietransfer in Billigstlohnländer) oft schlichtweg unberücksichtigt.
Wir haben schlicht darauf vergessen, dass die Welt,
und vor allem unsere Mitwelt (!) ein unteilbares Ganzes
ist. Wer aber fortgeht vom Ganzen, der geht auch vom
anderen fort. Theodor Faulhaber, österreichischer
Sozial- und Wirtschaftswissenschafter und Publizist, hat
das folgendermaßen ausgedrückt: „Er (der andere)
wurde vom Bruder zuerst zum Konkurrenten, dann zu
seinem Gegner, später zum Feind, schließlich zum Todfeind. Wir sind wie die Tropfen des einen einzigen Meeres, die sich vom Meer getrennt haben, als Regentropfen, als Teil eines Baches, eines Sees, eines Flusses,
einer Wolke, und wir vergaßen, dass wir Teile eines
Ganzen, Tropfen des einen Lebensmeeres sind …“5 Wir
6
haben uns – meint Faulhaber – von der wahren Welt zur
Warenwelt entfremdet!
Die Schizophrenie der Manager
Viele Manager leben schizophren: Sie tun etwas, was
sie gar nicht tun wollen – und fallen dabei in eine SinnLücke. Sie wissen ganz genau, dass das, was sie tun,
unethisch ist und unermesslichen Schaden anrichtet.
Aber die Shareholder wollen es – angeblich – so, und
ihnen seien die Manager (als CEO oder General Manager oder Aufsichtsratsvorsitzender etc.) alleine (?) verpflichtet. Wirklich?
Einige Zitate dazu: „Das, was die Leute nach oben
bringt, bringt sie auch zu Fall. Durchsetzungsfähigkeit,
Sendungsbewusstsein, Rücksichtslosigkeit und Monomanie … Wenn man zu allen lieb und nett ist, kommt
man im Unternehmen nicht voran.“6
Für Unternehmer und Manager gelten „… die gleichen Regeln des Anstandes wie für jeden Menschen,
und da würde ich bei den Zehn Geboten anfangen. Ein
Manager speziell hat aber darüber hinaus eine besondere Verantwortung, weil er mit anderer Leute Geld …
wirtschaftet. Er hat zudem eine besondere Vorbildfunktion … und außerdem eine soziale und volkswirtschaftliche Verantwortung …“7
Wirtschaftsethische Fragen werden heute vermehrt
aufgeworfen. Dabei ist sowohl die Rede von Personverträglichkeit, wobei die Würde des Einzelnen zu respektieren sei, als auch von Sozialverträglichkeit,
worunter die Mitleidensfähigkeit mit allem Lebenden
verstanden wird. Gefordert wird auch Zukunftsverträglichkeit: Produkte und Produktionsverfahren, die
Leben überhaupt bedrohen, seien ethisch nicht zu
rechtfertigen.
Ethik – ein Luxus?
Das Gleiche fordert der Österreicher Matthias Karmasin, Vorstand des Institutes für Medien- und Kommunikationswissenschaft der Universität Klagenfurt,
nämlich „… eine kopernikanische Wende unserer Einstellung zum Leben, unserer Einstellung zum eigenen
Leben, zum Leben anderer und zum Leben der Natur als
Ganzes, und zwar im Blick auf Gegenwart und Zukunft.“ (aus Ethik als Gewinn, Wien 1996)
Der deutsch-amerikanische Philosoph Hans Jonas
fordert in diesem Zusammenhang: „Der endgültig entfesselte Prometheus … ruft nach einer Ethik, die durch
freiwillige Zügel seine Macht davor zurückhält, dem
Menschen zum Unheil zu werden … Die dem Menschenglück zugedachte Unterwerfung der Natur hat im
Übermaß ihres Erfolges, der sich nun auf die Natur des
Menschen selbst erstreckt, zur größten Herausforderung geführt, die je dem menschlichen Sein aus eigenem Tun erwachsen ist.“8
Es geht also um die freiwillige Begrenzung der angemaßten Macht des Menschen; und zwar sowohl gegenüber den Mitmenschen als auch der Mitwelt gegenüber.
5 Faulhaber, Matrix – Kosmos – Psyche, in Tomaschek: Management und Spiritualität, S. 34.
6 Oswald Neuberger: Zum Doppelleben gezwungen, in „Die
Zeit“ Nr. 32/1995.
7 Roland Berger, a. a. O.
8 Jonas, Das Prinzip Verantwortung, S. 7.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Jonas weiter: „Ontologisch werden die alten Fragen
nach dem Verhältnis von Sein und Sollen, Ursache und
Zweck, Natur und Wert neu aufgerollt, um die neu erschienene Pflicht des Menschen jenseits des Wertsubjektivismus im Sein zu verankern.“9
Hans Jonas sieht als Antrieb des von ihm verlangten
„verantwortlichen Handelns“ auch die „Furcht“ davor,
was alles durch „unverantwortliches Handeln“ entstehen könnte. Er resümiert: Wer diese begründete, aber
„selbstlose Furcht“ nicht besitze, „… dem ist unser
Schicksal nicht anzuvertrauen“.10
Jonas ist Realist – und Utopist in einem: Er warnt,
dass die dunkelsten Zeiten jene seien, wo „… schon die
einfache Anständigkeit ungewöhnlichen Opfersinn
oder Mut erfordert und ihre Bewährung zur leuchtenden Ausnahme in der Flut der allgemeinen Erbärmlichkeit wird."11
Leopold Kohr, geborener Salzburger, trat dem Irrglauben, dass ständiges Wachstum alle Probleme lösen
könne, schon früh entgegen und forderte die Rückkehr
zum menschlichen Maß. Er ist der eigentliche „Vater der
Grün- und Ökologiebewegung“. Er war auch entschiedener Gegner des nationalen Größenwahns. Sein Ziel
war die Zerstörung der großen Nationalismen mit friedlichen und ökologischen Mitteln. Sein Hauptwerk ist
The Breakdown of Nations (Das Ende der Großen), das
er bereits Ende der fünfziger Jahre des letzten Jahrhunderts vollendet hatte. Erst 1957 wurde das Buch in London veröffentlicht. Er kämpfte für kleine politische Einheiten („Europa der Kantone“) und prägte das Schlagwort von „Small is beautiful“: das Kleine möge eigenverantwortlich im Sinne des Ganzen wirtschaften und
agieren. Kohr war damit seiner Zeit um rund ein halbes
Jahrhundert voraus. Er erhielt den Alternativen Nobelpreis (siehe weiter oben).
Inspiriert von Leopold Kohr forderte auch der britische Ökonom Ernst Friedrich Schumacher eine
Rückkehr zum menschlichen Maß. Ivan Illich, berühmter lateinamerikanischer Priester der Befreiungstheologie österreichischer Herkunft, schloss sich diesem Standpunkt an, als er sich für eine Selbstbegrenzung aussprach.
Auch der US-amerikanische Psychotherapeut M. Scott
Peck hält seinen Landsleuten den Spiegel vor, indem er
die US-Gesellschaft des Materialismus, des Egoismus,
des manipulativen Verhaltens und der Gefühllosigkeit
zeiht. Diese Gesellschaft sei krank und habe schon fast
den Glanz dessen, was es heißt, menschlich zu sein,
vergessen …
Die nackte Konkurrenz
Unsere ganze Erziehung inklusive unseres Schulsystems läuft nur auf eines hinaus: Besser zu sein als der
andere. Alle sollen mit allen konkurrieren. Es gilt die
Devise des Gegeneinander anstatt des Miteinander –
und sie wird auch gelehrt: vom Kindergarten an bis zur
Doktorwürde.
Siegen ist wichtig geworden, das Dabeisein allein
(olympisches Ideal in der Antike) genügt längst nicht
mehr. Der deutsche Jesuit und Sozialethiker Friedhelm Hengsbach meint, dass das „krankhafte Konkurrenzfieber“ von einer Kombination aus Wettstreit und
Zusammenspiel abgelöst werden müsse.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Der deutsch-amerikanische Soziologe Amitai Etzioni fordert eine Moral des Ich und Wir. Das Selbst des Individuums müsse dahingehend entwickelt werden,
dass es fähig sei, sich zum Du und zum Wir hin zu öffnen. Er steigt damit in die Fußstapfen von Erich
Fromm, der in seinem Weltbestseller Die Kunst des
Liebens klargemacht hat, dass man erst sich selbst lieben lernen müsse, um fähig zu sein, auch andere in ihrem Sosein akzeptieren zu können. Gelänge das bei
vielen (!), wäre es leichter, die Humanität und die Solidarität zu fördern.
Der berühmte Tübinger Theologe Hans Küng, vom
Vatikan aufgrund seiner kritischen Haltung mit dem
kirchlichen Lehrverbot belegt, verlangt in seinem Projekt Weltethos eine Ethik der Verantwortung anstatt
einer kruden Erfolgsethik und fordert die Befolgung
der Goldenen Regel, die bereits von Moses, Buddha
und Jesus gelehrt wurde.
Die Forderung nach ethischem Verhalten ist also
nicht neu – und neu ist auch nicht, dass die ethischen
Normen nicht befolgt werden. Nur hat das Nicht-Einhalten der primitivsten Verhaltensregeln für das Zusammenleben der Menschen im Zeitalter von Nuklearwaffen und der Globalisierung ungleich gefährlichere Folgen als früher.
Und wo bleibt die Verantwortung?
Und in der Praxis des Wirtschaftens? In den Unternehmen selbst, egal ob in einem KMU (= Klein- und
Mittelunternehmen) oder in den Bürotürmen eines
Multi? Auch hier klaffen Theorie und Praxis weit auseinander; auch hier wird ethisches Management zwar
verlangt und gelehrt, aber bei weitem nicht in ausreichendem Maße vor- und ausgelebt. Der Jesuit und Managementtrainer Rupert Lay spricht da von einem
„schönen Schein“.
Und wie ergeht es den so genannten Querdenkern,
jenen (wenigen) Mutigen, die es wagen, eben gegen
den Mainstream zu denken und zu agieren? Die Vorschläge einbringen, wie es besser gemacht werden
könnte und die auch die Konfrontation nicht scheuen?
Sie werden oft als Querulanten beschimpft und gemobbt.
Wie ethisch ist es, Firmen „gesundzuschrumpfen“?
Unter dem Deckmantel des „Sparenmüssens“ bzw. der
„Gewinnmaximierung“ oder der „Kostenersparnis“
werden ganze Firmen nicht gesund-, sondern krankgeschrumpft. „Outsourcing“ ist eines der jüngsten
neudeutschen Wirtschaftsvokabel: Ganze Abteilungen
in Großfirmen werden zugesperrt, die Mitarbeiter entlassen, in (Früh-)pension geschickt oder schlicht dorthin versetzt, wo sie de facto nichts mehr zu tun haben –
und auch nichts mehr anstellen können bzw. nichts
mehr tun sollen. Man zwingt sie auf diese Weise, von
selbst zu kündigen. Dass damit nicht nur Mitarbeiter
„vernichtet“, sondern auch die Kreativität und die Motivation eines Unternehmens „outgesourced“ werden,
gilt als sekundär – Hauptsache die Shareholder klatschen Beifall! Noch zumindest! Denn: Ist eine Firma einmal zu Tode rationalisiert, erfolgt die Einsicht zu spät.
9 A.a.O., S. 8.
10 A.a.O., S. 392.
11 Jonas, Technik, Medizin und Ethik. Zur Praxis des Prinzips Verantwortung, S. 60.
7
Der deutsche Philosoph Peter Sloterdijk drückte es
unverblümt aus: „Die erste Welt produziert massenhaft
hoch individualisierte Menschen, um es freundlich auszudrücken. Man könnte sie simpel auch als pure Egoisten bezeichnen.“12
Schon vor rund 50 Jahren hatte der deutsche Nationalökonom Wilhelm Röpke, einer der Väter der sozial
und ethisch orientierten Marktwirtschaft angemerkt:
„Was nützt aller materieller Wohlstand, wenn wir die
Welt immer häßlicher, lähmender, gemeiner und langweiliger machen, und die Menschen den moralischgeistigen Grund ihrer Existenz verlieren? Der Mensch
lebt eben nicht nur von Radios, Autos und Kühlschränken, sondern von der ganzen unverkäuflichen Welt,
jenseits des Marktes und der Umsatzziffern, von Würde,
Schönheit, Poesie, Anmut, Ritterlichkeit, Liebe und
Freundschaft, vom Unberechneten, über den Tag und
seine Zwecke Hinausweisenden, von Gemeinschaft,
Lebensgebundenheit, Freiheit und Selbstentfaltung.“
Seit einigen Jahren scheint sich auch die Österreichische Industriellenvereinigung (IV), beileibe kein Interessenvertreter der Arbeiter und Angestellten (das wäre
nämlich die Arbeiterkammer – AK!), mit der „Restrukturierung der Werteordnung in Richtung Redimensionierung des Ökonomischen und Materiellen“13 zu identifizieren. Selbst honorige Manager weltweit agierender
Konzerne diagnostizieren einen Wertezerfall, der in
den Chefetagen um sich greife. Offen werden „Gier“
und „Rücksichtslosigkeit“ dort zugegeben, und ethi-
sche und moralische Verantwortung wird unverblümt
eingefordert.
Wenn sogar der CEO eines internationalen Konzerns
(also eines „Multi“) konstatiert , dass man zu sehr auf
„kurzfristige Gewinnmaximierung“ schiele und dafür
sogar bereit sei, das „langfristig gewachsene Vertrauen
zwischen Management, Mitarbeitern und Kunden aufs
Spiel zu setzen“, dann sind das veritable Anzeichen,
dass auch „denen ganz oben“ bewusst geworden ist,
wohin die Reise gehen könnte – wenn nicht rechtzeitig
umgedacht wird!
Und das ist beruhigend und gibt Hoffnung. „Dum
spiro spero“, wussten schon die Lateiner: So lange man
atmet, hofft man.
Literatur:
Frankl, Viktor E.: Wissenschaft und Sinnbedürfnis. Wiederabdruck aus dem Jahr 1990 in conturen 4/5, 2005.
Jonas, Hans: Das Prinzip Verantwortung. Frankfurt 1984, Suhrkamp.
Jonas, Hans: Technik, Medizin und Ethik. Zur Praxis des Prinzips
Verantwortung. Frankfurt 1985, Insel Verlag.
Schumacher, Ernst Friedrich: Die Rückkehr zum menschlichen
Maß – Alternativen für Wissenschaft und Technik. Small is
beautiful. Reinbek bei Hamburg 1977, Rowohlt.
Tomaschek, MIchael (Hg.): Management und Spiritualität. Bielefeld 2005, Kamphausen.
12 Peter Sloterdijk, in: Deutsche Wirtschaftswoche Nr. 45/1995.
13 Faulhaber, Matrix – Kosmos – Psyche, in Tomaschek: Management und Spiritualität, S. 45.
Buchbesprechung
Karl Edlinger: Darwin – auf den Kopf gestellt.
Was bleibt von einer Ikone? Wien–Klosterneuburg
2009, Edition Va Bene. ISBN 978-3-85167-230-5.
Das Frankfurt der späten 60er Jahre wird mit der Studentenrevolte und dem Aufbruch zu neuen gesellschaftlichen Horizonten assoziiert. Am selben Ort spielte sich zur gleichen Zeit aber auch eine fundamentale
Umwälzung in der Biologie ab. Der Impuls zur Erneuerung ging vom Senckenberg-Institut aus, das nach seinem Gründer, dem Philanthropen und Goethe-Freund
Johann Christian Senckenberg, benannt wurde. Karl
Edlinger kommt nun das Verdienst zu, den dort entwickelten Ansatz in verständlicher Weise zu präsentieren.
Nach der Senckenberger Schule sind die Organismen
während der Evolution keine Objekte, sondern weitgehend autonome Subjekte. Lebensräume werden von ihnen immer aktiv erschlossen. Die Möglichkeiten der Erschließung hängen von ihren jeweiligen Möglichkeiten
ab, die durch die Konstruktion gegeben sind. Die Umwelt taugt nicht zur Erklärung der Beschaffenheit der
Organismen; sie entscheidet aber mit über die Chancen
des Überlebens. Die Senckenberger Schule stellt sich
damit gegen das vorherrschende Paradigma in der Biologie: gegen die Synthetische Theorie von Ernst Mayr.
Kritisiert wird auch die Annahme, dass nur die Bestangepassten überleben. Edlinger verweist auf die Giraf-
8
fen, die ja von den Vertretern der Synthetischen Theorie
als Musterbeispiel für den Anpassungsprozess genannt
werden. Wer Giraffen beim Trinken beobachtet, merkt
sogleich, wie schwer es ihnen fällt, mit dem Kopf zwischen den auseinandergespreitzten Vorderbeinen zum
Wasser zu gelangen. Die Blut- und Sauerstoffversorgung ihres Gehirns funktioniert nur mittels einer zusätzlichen Pumpvorrichtung in der Halsschlagader. Es
überleben also nicht nur die Bestangepassten, sondern
auch jene, die gerade noch gut genug angepasst sind.
Im historischen Teil seines Buches zeigt Edlinger,
dass Darwins Theorie fast zur Gänze von anderen Biologen antizipiert wurde und mit der Annahme einer
Vererbung erworbener Eigenschaften dem Lamarckismus verhaftet bleibt. Er legt auch offen, dass die Entwicklung des Lebendigen völlig unterschiedlich erklärt
werden kann. Es gibt nicht die Evolutionstheorie, sondern verschiedene Evolutionstheorien. Was zunächst
wie ein homogenes Gebilde aussieht, zerfällt bei näherem Hinsehen in eine Fülle unterschiedlicher, miteinander konkurrierender Subtheorien.
Ohne jede Übertreibung kann versprochen werden:
Die Leserinnen und Leser von „Darwin – auf den Kopf
gestellt“ werden die Biologie und ihre Geschichte in einem ganz neuen Licht sehen.
Robert Hofstetter
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
BIOLOGIE, GEOWISSENSCHAFTEN
Prof. Mag. Leo Holemy
Umweltpolitik für chemische Produkte –
wem nützt sie und wovor schützt sie?
Thomas Jakl
Zusammenfassung
Die Instrumentarien, die in der Vergangenheit bemüht wurden, um der schleichend ansteigenden Belastung durch synthetische Chemikalien zu begegnen,
hielten den wachsenden ökologischen, gesellschaftlichen und politischen Anforderungen nicht mehr stand.
Umweltmedien sind ebenso wie Organismen selbst mit
einer Vielzahl von Chemikalien belastet, die wiederum
aus einer Vielzahl von Produkten und Prozessen stammen. Der Erkenntnisgewinn, der zur Bewertung dieser
Belastungen und zum Ergreifen risikoreduzierender
Maßnahmen nötig ist, hinkt ihrer Feststellung zwangsläufig nach – ein umweltpolitisch unbefriedigender und
gesellschaftspolitisch unverantwortlicher Zustand. Die
aktuelle Herausforderung besteht darin, aufbauend auf
Elementen, die sich bewährt haben, neue Rahmenbedingungen zu schaffen, welche den notwendigen Paradigmenwechsel verkörpern. Die glaubwürdige Verankerung des Vorsorgeprinzips in Form von Regelungen,
welche die Dokumentation chemischer Eigenschaften
direkt an Maßnahmen zum Risikomanagement koppeln,
gemeinsam mit dem aktiven Einbinden wirtschaftlicher
Prinzipien – wie etwa jenem der Ressourceneffizienz –
unterfüttert von einer effektiven Marktbeobachtung sowie einem glaubwürdigen und effektiven Vollzug der
rechtlichen Vorgaben werden die Grundlagen der modernen Chemiepolitik bilden müssen.
Chemikalien wirken subtil
Die Umweltprobleme, mit denen sich Chemiepolitik
heute konfrontiert sieht, sind allerdings zumeist von anderer Qualität als jene der schäumenden Flüsse und der
plötzlichen Fischsterben. Egal ob man Wasser aus dem
klarsten Gebirgsbach, Luft aus einem „Reinluftgebiet“,
eine Bodeprobe aus dem Urwald, einen Bohrkern aus
der Arktis, Nabelschnurblut oder Muttermilch untersucht: synthetische Chemikalien werden überall nachweisbar sein. Oft in extrem geringer Konzentration,
manchmal jedoch auch in unerwartet hoher Anzahl und
Menge.
Die Freisetzung von Chemikalien kann jedenfalls
massive Auswirkungen auf Umwelt und Gesundheit
haben. Wie die Vergangenheit zeigte, dokumentieren
vielfach erst Effekte in den Umweltmedien oder das unvorhergesehene Auftreten von Chemikalien in Produkten, dass wir vom beherrschbaren und kontrollierten
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
und verantwortungsvollen Chemikalieneinsatz noch
weit entfernt sind. auch die ordnungspolitischen Instrumente der EU und ihrer Mitgliedstaaten wurden den gesellschaftlichen Ansprüchen bislang kaum gerecht.
Deshalb hat die Chemiepolitik sowohl auf EU- als auch
auf nationaler Ebene hohen Stellwert. Auch in der Öffentlichkeit gibt es ein zunehmendes Bewusstsein für
die Problematik der Freisetzung von Chemikalien.
Die Rolle chemischer Stoffe als potentielle Störfaktoren für den Hormonhaushalt, Allergieauslöser und Mitverursacher von Phänomenen wie der „Belastungen
der Innenraumluft“, „Multiple Chemikaliensensitivität“
ist dafür in hohem Maße verantwortlich und macht den
Handlungsbedarf offensichtlich.
Einer der stärksten umweltpolitischen Trends vergangener Jahre ist, dass Umweltprobleme umso stärker
wahrgenommen werden und zu politischen Handlungen führen, je enger der Konnex zur menschlichen Gesundheit ist. So stieg die Ozonschicht in unserer Wertschätzung ungemein, als bekannt wurde, dass sie
Schutz vor den krebserregenden UV-Strahlen bietet.
Jüngste politische Großvorhaben, wie etwa die neue
EU-Chemiepolitik REACH, waren erst durch einschlägige Befunde, die die menschliche Belastung durch Industriechemikalien dokumentierten, politisch durchsetzbar. Die damalige Umweltkommissarin Margot Wallström ließ ihr Blut auf das Vorkommen und die Konzentration von Industriechemikalien testen – der Befund,
28 Stoffe waren nachweisbar, und seine Publikation
waren prägend und entscheidend für den Verhandlungsverlauf (EIKMANN und HERR 2004).
Das politische Dilemma
Bis zum Jahr 2020 möchte die Staatengemeinschaft –
so beschloss sie es am Weltumweltgipfel in Johannesburg 2002 – die Freisetzung von umwelt- und gesundheitsschädlichen Chemikalien minimieren. Rund
100.000 Stoffe kennt der europäische Markt – nur ein
verschwindend geringer Teil davon ist so dokumentiert, dass eine solide Beurteilungsgrundlage über die
Risiken vorhanden ist, die bei Anwendung der Stoffe
entstehen.
Das zuvor erwähnte „2020 – Ziel“ kann nur erfüllt
werden, wenn einerseits gesicherte Dokumentation zur
Bedingung für den Marktzugang wird (die wichtigsten
Eigenschaften der Stoffe müssen bekannt sein, bevor
diese zum Einsatz kommen) und andererseits, wenn es
9
zu einer konsequenten Anwendung des Vorsorgeprinzips kommt. Dieses Prinzip erfordert Maßnahmen zur
Reduktion von Belastungen schon bei begründetem
Verdacht einer Gefährdung. Es zielt auf Vermeidung ab
und steht somit im Gegensatz zu Maßnahmen, die erst
greifen, nachdem ein Risiko schon Realität ist, also nur
mehr Reparatur möglich ist. Darauf setzen etwa die USA
in Form ihres Haftungsregimes: Nach eingetretenem
Schaden wird der Verursacher zur Kasse gebeten. Zugespitzt auf zwei Kurzformeln steht auf der einen Seite
das europäische „better safe than sorry“ und auf der anderen das amerikanische „the polluter pays“.
Das Vorsorgeprinzip mahnt Maßnahmen zum Gesundheits- und Umweltschutz schon dann ein, wenn
sich konkrete Gefährdungen abzeichnen. Zum einen
zeigen jüngste Befunde, dass bereits äußerst geringe
Konzentrationen an Chemikalien in den Umweltmedien (Wasser, Boden und Luft) zu Beeinträchtigungen
der menschlichen Gesundheit oder auch zu Schädigungen der Lebewelt im Allgemeinen führen können (COM
2000; HAFNER et. al. 2001). Als Beispiele dafür seien
die verstärkte Zunahme von (durch Chemikalien bedingte) Allergien, Symptome wie „Multiple Chemikaliensensibilität“, oder auch die Eigenschaft von Chemikalien erwähnt, das Hormonsystem beeinträchtigen zu
können (Stichwort „Endocrine Disrupters“), genannt.
Der Dokumentation und Kontrolle dieser Phänomene
dienten große Forschungs- und Dialogvorhaben der
vergangenen Jahre.
REACH – ein Paradigmenwechsel
Das REACH-System (Registration, Evaluation and
Authorisation of Chemicals; EU-VO 1907/2006) der EU
wird jene Informationsbasis zu den Eigenschaften und
Risiken von Industriechemikalien sicherstellen, die vorsorgeorientiertes Handeln möglich macht. Im Gegensatz zur derzeitigen Situation, wo die Chemiepolitik anlassbezogen eingreift und dem Vorsorgegedanken nur
bedingt entsprechen kann, wird nach Umsetzung des
REACH-Systems eine gesicherte Datenbasis zugleich
Bedingung für den Marktverbleib und Grundlage zum
Management von chemischen Substanzen darstellen.
REACH sieht die Registrierung von rund 30.000 Stoffen
(Produktionsvolumen von mehr als 1 t p. a. und Hersteller) in einer Datenbank vor, wobei damit die Identität des Stoffes, die Inverkehrbringer sowie physikalisch-chemische, toxikologische und ökotoxikologische Grundinformationen erfasst werden. Weit mehr
als 90% des Marktvolumens an Chemikalien werden so
erfasst. Die registrierten Stoffe werden einem abgestuften Risikobewertungssystem unterzogen werden. Die
einzelnen Anwendungen der Stoffe werden beurteilt –
auch die Verwender werden angehalten, ihre Erfahrungen in das System einzuspeisen. Behördlich bewertet
und überprüft werden (etwa hinsichtlich des Bedarfs an
zusätzlichen Tests) jedenfalls alle Substanzen, deren
Produktion 100 Tonnen übersteigt. Das Zulassungsverfahren (Autorisierung) soll besonders gefährliche Chemikalien erfassen – etwa krebserzeugende oder schwer
abbaubare, toxische und persistente Stoffe. Selbst für
Chemikalien, die in den zahllosen Gebrauchsgegenständen eingesetzt werden, sieht REACH ein Meldesystem vor.
10
Das Europäische Parlament drängte massiv darauf,
eine generelle Sorgfaltspflicht der Hersteller und Importeure zu verankern, musste sich hier aber mit zwar
politisch wichtigen, aber rechtlich zunächst kaum bindenden Passagen in der Präambel zur REACH-Verordnung bescheiden.
Die zweite zentrale und entscheidende Umsetzung
des Vorsorgeprinzips durch REACH wird darin bestehen, besonders gefährliche Chemikalien von bestimmten Anwendungen a priori auszuschließen. Stoffe, die
etwa Krebs erzeugen oder den Hormonhaushalt durcheinander bringen und sich in der Nahrungskette anreichern, sollen nur mehr in zugelassenen Anwendungsbereichen eingesetzt werden dürfen. Auf Druck des
Parlaments muss ein Plan zum Ersatz des gefährlichen
Stoffes Bestandteil jedes Zulassungsantrages sein. Die
Unternehmen werden so veranlasst, selbst eine Strategie (inklusive zeitlicher Abschätzung und Machbarkeitsstudie) zu entwickeln, besonders bedenkliche
Stoffe durch Alternativsubstanzen oder auch durch alternative Technologien zu ersetzen. Der Weg, den REACH bis zu seiner Beschlussfassung durch die europäischen Institutionen genommen hat, wurde auch (um
beim Chemiethema zu bleiben) zum Lackmustest für
die europäischen Gesetzgebungsverfahren selbst:
• REACH ersetzt mehr als 40 geltende EU-Verordnungen respektive Richtlinien.
• Mitsamt den zahlreichen technischen Anhängen
galt es, hunderte Seiten an Rechtstext zu verhandeln.
• Mit der Weiterentwicklung des Vorschlags der
Kommission waren 7 Präsidentschaften – auch die österreichische – befasst.
• Das Europäische Parlament brachte in 1. Lesung
fast 4.000 Änderungsanträge ein.
Eine in diesem Umfang und in dieser Komplexität
einmalige Belastungs- und Bewährungsprobe für die
EU-Institutionen, die einen gesamten seit 40 Jahren gewachsenen Rechtsbereich, der den modernen Anforderungen nicht mehr zu genügen vermochte, komplett
neu zu orientieren hatten, damit dieser in diesem Zeitraum gewonnene Erkenntnisse auch adäquat abbildet
und berücksichtigt. Im Zuge der Verhandlungen wurde
nun auch die Kosteneffizienz von REACH optimiert und
der Verwaltungsaufwand reduziert. Eine Folgenabschätzung für Österreich (durchgeführt von einem Konsortium aus: Industriewiss. Institut, für industrielle Ökologie, dem Wirtschaftsconsultant Denkstatt und dem
Lehrstuhl für Volkswirtschaftslehre Univ. Klagenfurt)
kommt zu dem spröden Schluss: „Zusammenfassend
ergibt sich auch unter Berücksichtigung der bestehenden Datenunsicherheiten eine relativ größere Wahrscheinlichkeit der volkswirtschaftlich insgesamt positiven Nettoeffekte einer Umsetzung von REACH in Österreich als für den umgekehrten Fall (volkswirtschaftlicher Ressourcenverzehr bei Einführung von REACH)
angenommen werden kann.“ Die Kernaussage dieser
Folgenabschätzung ist, dass REACH der österr. Volkswirtschaft ein Vielfaches an Nutzen gegenüber Kosten
bringt obwohl zahlreiche zu erwartende positive Effekte für die Umwelt kaum quantifizierbar waren. Der
maßgebliche, quantifizierbare volkswirtschaftliche
Nutzen besteht in der prognostizierten Vermeidung
von berufsbedingten Todesfällen, die vermieden werden können, da etwa die krebserzeugende Eigenschaft
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
bestimmter Arbeitsstoffen durch REACH vorzeitig erkannt wird (GETZNER 2006).
kumentierten eindrucksvoll wie vielgestaltig dieses in
Österreich entwickelte Geschäftsmodell anwendbar ist.
REACH als Chance
Chemiepolitik muss alle Manuale
bespielen
Der ganzheitliche, vernetzte Zugang zu den Stoffströmen selbst wurde während der Vergangenheit durch
die begriffliche und politische Trennung von Chemiewirtschaft und Abfallwirtschaft erschwert. Während die
Abfallwirtschaft den „Vorteil“ genießt, dass der Stau an
Stoffströmen unmittelbar spürbar ist, sei es im Mülleimer daheim, sei es durch die Verknappung des Deponievolumens, Engpässe der Verbrennungsanlagen etc.,
manifestiert sich der Stau der Stoffströme der Chemikalien erst durch das Umweltproblem selbst (bodennahes
Ozon als Stau von Ozonvorläufersubstanzen, Treibhauseffekt als Stau von Treibhausgasen, Gewässerbelastung als Stau von Abwasserinhaltsstoffen ...). Die Stoffströme der konventionellen chemischen Produkte, man
denke an Waschmittel, Pflanzenschutzmittel oder Lösungsmittel, werden in die Umweltmedien entlassen
und sind daher schwerer fass- und erlebbar als die Ströme der klassischen Abfallwirtschaft, die gebündelt werden und sichtbar sind. Auch hier bringt REACH einen
Paradigmenwechsel: Der gesamte Lebenszyklus eines
Stoffes (von seiner Herstellung bis zur eventuellen Behandlung als Abfallbestandteil) muss in die Bewertung
der von seiner Anwendung ausgehenden Risiken einbezogen werden.
Chemikalien-Leasing –
ein Welterfolg „Made in Austria“
REACH bedingt zudem eine neue Form der Kooperation und Kommunikation zwischen Herstellern und Anwendern von Chemikalien was das Lebensministerium
durch die Entwicklung eines neuartigen Geschäftsmodells (Chemikalienleasing) unterstürzt und nützt. Im
Mittelpunkt dieser Pilotvorhaben steht nicht mehr das
chemische Produkt selbst, sondern die Dienstleistung,
die es verrichtet (Reinigen, Beschichten, Lösen, Kühlen,
Schmieren etc.). Der Hersteller von Chemikalien erzielt
seinen Profit durch den Umfang an Leistungen, den
sein Produkt erbracht hat (Anzahl an gereinigten Teilen, Größe der beschichteten Fläche etc.) und hat damit
ein wirtschaftliches Interesse (!) an der Effizienz des
Einsatzes seines Produkts. Die Umsetzung derartiger
Geschäftsmodelle (dies geschieht mittlerweile in Kooperation mit UNIDO in weltweitem Maßstab, JAKL
und SCHWAGER 2007) bringt nicht nur quantifizierbaren Nutzen für die menschliche Gesundheit und die
Umwelt – der Anreiz, Chemikalien effizient einzusetzen, wird dadurch extrem gesteigert –, sondern nutzt
auch die von der neuen EU-Chemiepolitik vorgezeichnete neue Qualität der Kooperation zwischen Herstellern und Anwendern und eröffnet damit der chemischen Industrie und ihren Partnern einen wesentlichen
und mittlerweile auch anerkannten Entwicklungsimpuls (JAKL et al 2003; JAKL und SCHWAGER 2007).
2010 wurde gemeinsam mit der UNIDO ein „Global
Chemical Leasing Award“ vergeben. Die 27 Bewerbungen aus zahlreichen Branchen (von Wasseraufbereitung über Textilherstellung bis hin zu Petrochemie) do-
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Diese Achse rechtlicher chemiepolitischer Instrumente wird in der EU respektive in einzelnen Mitgliedsstaaten flankiert und sektoriellen Initiativen, wie beispielsweise den Bestimmungen zu fluorierten Gasen,
welche die Treibhauswirksamkeit von Industriechemikalien zum Anlass für eine Reglementierung der damit
verbundenen Technologien genommen haben. Österreich hat diesbezüglich Jahre vor der EU eine einschlägige Beschränkungsmaßnahme erlassen (österr. Bundesgesetzblatt BGBl. 447/2002). Ähnlich wie bei der
ersten österreichischen Lösungsmittelverordnung
(BGBl. 872/1995) wurde dadurch nicht nur Umweltnutzen gestiftet, sondern für die österreichische Industrie
auch First Mover Advantages gestützt. Beide Regelungen standen Pate für deren Pendants auf EU – Ebene: So
hat Österreich bereits 1995 flüchtige organische Verbindungen (kurz VOCs) in Farben und Lacken beschränkt
und so zur Eindämmung des Reizgases Ozon beigetragen. Im Jahr 2003 hat sich die Europäische Kommission
entschlossen, dem österreichischen Beispiel zu folgen:
Ein Vorschlag für eine neue EU-Richtlinie zur Beschränkung von VOCs in Farben und Lacken wurde mittlerweile als EU – Vorschrift beschlossen. Die österreichische Rechtslage auf die EU – Situation bestens vorbereitet und verfügten somit lange vor den EU – weiten Fristen über ausgereifte Alternativtechnologien.
Sonderfall Nanotechnologie
Zu den wichtigsten nanotechnologischen Produkten
im weitesten Sinne zählen viele Pigmente und andere
Zusatzstoffe (Additive) für Lacke und Kunststoffe. Eine
der bekanntesten Anwendungen betrifft die Imitierung
des Wasserabweisenden „Lotuseffekts“, was selbstreinigende Oberflächen ermöglicht. Auch als Schutzanstrich für Karosserien wird die Nanotechnologie derzeit
angewendet. Auch der Schutz vor ultravioletter Strahlung in nahezu sämtlichen (!) modernen Sonnencremes
besteht aus nanoskaligem Titandioxid. Ein massiver gegenwärtiger Trend besteht in der Ausrüstung von Textilien und anderen Gebrauchsgegenständen mit Nanosilber (desinfizierend).
Ähnlich vielschichtig wie die Anwendungsweisen
und Wirkmechanismen sind die toxikologischen Effekte von Nanomaterialien. Da es nämlich nicht bloß die
Größe ist, welche die potentielle Gefährdung verursacht, sondern die biologische Interaktion von appliziertem Material und betroffenem Gewebe abhängig,
sind nur spezifische Einzelbefunde aussagekräftig. Aus
jenen, die bisher vorliegen, lässt sich jedoch in einzelnen Fällen eine äußerst hohe Toxizität (etwa bei röhren- oder kugelförmigen Kohlenstoff-Konstrukten oder
Metallkörpern in Nanostruktur) ableiten. Diese liegt in
Einzelfällen um Größenordnungen über jener, die das
gleiche Material aufweist, wenn es nicht Nanoform appliziert wird – auch bedingt durch das effektive Eindringen dieser Körper in Gewebe und Zellen.
11
Nanomaterialien – Regulierungsaspekte
Die etablierten Tests zur Toxizität auf verschiedenen
Ebenen sind prinzipiell auch für Nanomaterialien anwendbar – unbefriedigend ist, dass aus der Toxizität
nicht notwendigerweise auf den dahinter stehenden
Wirkmechanismus geschlossen werden kann. Die Notwendigkeit neuer Tests und deren Entwicklung werden
geprüft (OECD) – ein langwieriger Prozess. REACH (die
neue EU-Chemikalienpolitik) registriert erst ab 1 Tonne
pro Hersteller und Jahr (eine für Nanomaterialien hohe
Schwelle) – Zulassung und Beschränkung sind jedoch
davon nicht betroffen. REACH umfasst daher auch Nanomaterialien – die Testergebnisse werden jedoch
wahrscheinlich nicht (oder nicht im Regelfall) „automatisch“ durch die Registrierung erhoben werden. Bei Nanomaterialien ist die Beweislast also – trotz prinzipieller
Herstellerverantwortlichkeit – verstärkt wieder bei den
Behörden gelegen. Das EP verlangt spezifische Regelungen im „Nanobereich“. Die EK verfolgt den Weg der
Anpassung und Interpretation bestehenden Rechts.
Eine Vorgangsweise, die wir zumindest im Bereich
Chemikalien, für adäquat empfinden.
Diese Situation ist in den Anwendungsfeldern außerhalb der chemischen Industrie (Nahrungsmittel, Pharmazie, Kosmetik) ähnlich: Die Rechtsmaterien und Untersuchungsmethoden sind ohne Berücksichtigung der
Nanoproblematik konzipiert worden – viel wird der
Herstellerverantwortung überantwortet; teilweise werden „nanospezifische“ Adaptierungen vorgenommen
(EU Kosmetikrecht, Nahrungsmittelrecht). Die Gemengelage aus dynamischer wirtschaftlicher Entwicklung,
intensiver Forschungstätigkeit, unklarer Risikosituation
und vielgestaltiger Prozesse im Vorfeld regulatorischer
Entscheidungen ließ es sinnvoll erscheinen, die Rolle
und Position Österreich mittels eines nationalen Aktionsplans zu klären respektive zu definieren. Unter
breiter Einbindung interessierter Kreise wurde der Österr. AKTIONSPLAN NANOTECHNOLOGIE über einen
Zeitraum von einem Jahr konzipiert und ausverhandelt.
Der Ministerrat hat dieses politische Dokument am 2. 3.
2010 beschlossen. Die wesentlichsten Inhalte:
• Darstellung der in diesem Technologie-Bereich bereits erfolgenden Aktivitäten national/international (IstZustand);
• Aufzeigen von möglichen Chancen in/für Österreich;
• Identifizierung möglicher Risiken für Mensch/Umwelt sowie vorhandener Wissenslücken.
• Daraus folgend liegt der Schwerpunkt auf der Formulierung des österreichischen Handlungsbedarfs
sowie konkreter Maßnahmen auf nationaler, EU- und
internationaler Ebene (z. B. Förderprogramme, Ausarbeitung von Empfehlungen für Mitgestaltung gesetzlicher Vorhaben unter Miteinbeziehung der Entwicklung
in EU/global. Maßnahmen zur Schließung von Wissenslücken, Bewusstseinsbildung in der Bevölkerung, Maßnahmen zur Stärkung des Wirtschaftsstandorts im Bereich Nano in Österreich etc.)
12
Conclusio
Innerhalb der Europäischen Union versteht sich Österreich als Motor für eine vorsorgeorientierte, ambitionierte und effektive Chemiepolitik. Dies auch im Zuge
der Verhandlung und Umsetzung internationaler Chemiekonventionen, deren Anliegen beispielsweise der
globale Ausstieg aus persistenten organischen Verbindungen, aus Substanzen, welche die Ozonschicht schädigen oder die Sicherung eines Managementsystems –
und Informationsflusses im internationalen Umfang mit
Chemikalien ist. Die Kontrollsysteme, die Österreich
speziell für die Einhaltung dieser internationalen Regime etabliert hat, sind vielfach beispielgebend.
Zunehmend von Bedeutung und eng verknüpft mit
allen chemiepolitischen Handlungsfeldern ist die optimierte Umsetzung von EU-Vorgaben durch die bundesweite Koordinierung und Steuerung des Vollzuges, der
in Österreich durch Organe der Bundesländer wahrgenommen wird. Schwerpunktprogramme und stichprobenartige Überprüfungen werden eingebunden in EUweite Aktionen und sollen so die Einhaltung eines hohen Schutzniveaus sichern. Österreich erhebt den Anspruch, sämtliche Teilgebiete der Chemiepolitik zu verfolgen und schwerpunktmäßig aktiv mitzugestalten.
Österreichische Initiativen haben in vielen Fällen europäische und internationale Entwicklungen entscheidend beeinflusst. Partnerschaften zwischen politischer
Verwaltung, wissenschaftlichen Institutionen, NGOs
und der Wirtschaft waren das tragende Fundament dieses Politikbereiches während der letzten Jahrzehnte.
Literatur:
JAKL T., JOAS R., NOLTE R. F., SCHOTT R., WINDSPERGER A., 2003:
„Chemikalien-Leasing – Ein intelligentes und integriertes Geschäftsmodell als Perspektive zur nachhaltigen Entwicklung der Stoffwirtschaft“, Springer Verlag Wien, New York
JAKL T. und SCHWAGER P., 2007: „Chemical Leasing goes global –
selling services instead of barrels“, Springer Verlag Wien, New York
HAFNER G., JAKL T. und LOIBL G., 2002: „Conference Conclusions by
the Chairs“ in „THE ROLE OF PRECAUTION IN CHEMICALS POLICY“, Freytag E., Jakl T., Loibl G., Wittmann M. (Editors), Favorita Papers, Diplomatic Academy of Vienna
EIKMANN T. und HERR C., 2004: „Sind die Human-BiomonitoringWerte unserer Politiker und Abgeordneten ein wichtiges und richtiges politisches Instrument?“, Umweltmed. Forsch. Prax 9 (6), ecomed Landsberg, D.
PERTEHN-PALMISANO B. und JAKL T., 2004: Chemical Leasing –
Cooperative busness models for sustainable chemicals management, Environmental Science and Pollution Research (Volume 12,
Number 1/Januar 2005), economed publishers, Landsberg, Tokyo,
Mumbai, Seoul, Melbourne, Paris
RENGELING H.-W., 2003: Umgestaltung des deutschen Chemikalienrechts durch europäische Chemikalienpolitik; Carl Heymanns Verlag, Köln
GETZNER M., 2006: „Kosten und Nutzeneffekte der Chemiepolitik“,
LIT Verlag Wien
KOMMISSION DER EUROPÄISCHEN GEMEINSCHAFTEN, Mitteilung
der Kommission über dei Anwendbarkeit des Corsorgeprinzips,
COM 2000 (1)
Anschrift des Verfassers:
Ministerialrat Mag. Dr. Thomas Jakl, Leiter der Abt. für Chemiepolitik
im BM für Land- und Forstwirtschaft, Umwelt und Wasserwirtschaft,
A-1010 Wien, Stubenbastei 5, [email protected]
ECHA (European Chemicals Agency, Helsinki) Chairman of the Management Board
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
CHEMIE
Dr. Christian Wolny
Nachweis von Lebensmittelallergenen
Martina Wolny
In der westlichen Welt nimmt die Anzahl an Lebensmittelallergikern stetig zu. Zur Zeit sind etwa 3% der Erwachsenen und 6–8% der Kinder betroffen. Aus diesem
Grund hat die europäische Union eine Liste der häufigsten Allergene in Lebensmitteln erstellt, deren Kennzeichnung auf Lebensmitteln verpflichtend ist. Zu diesen zählen nach Stand 20071 folgende 14 Nahrungsmittelzutaten und daraus gewonnene Erzeugnisse mit den
in Klammern angeführten Ausnahmen: Glutenhaltige
Getreide (außer: Glukosesirup und Maltodextrin auf
Weizenbasis; Glukosesirup auf Gerstenbasis; Getreide
zur Herstellung von Destillaten oder Ethylalkohol landwirtschaftlichen Ursprungs für Spirituosen und andere
alkoholische Getränke), Krebstiere, Eier, Fische (außer:
Fischgelatine als Träger für Vitamin- oder Karotinoidzubereitungen sowie Fischgelatin oder Hausenblase als
Klärhilfsmittel in Bier und Wein eingesetzt), Erdnüsse,
Sojabohnen (außer: vollständig raffiniertes Sojabohnenöl und -fett; natürlich gemischte Tocopherole [E306],
natürliches D-alpha-Tocopherol bzw. -azetat und -sukzinat aus Sojabohnenquellen; Phytosterine und -ester
aus pflanzlichen Sojabohnenölen; aus Pflanzenölsterinen gewonnene Phytostanolester aus Sojabohnenquellen), Milch (außer: Lactit; Molke zur Herstellung von
Destillaten oder Ehtylalkohol landwirtschaftlichen Ursprungs für Spirituosen und andere alkoholische Getränke), Schalenfrüchte (außer: Schalenfrüchte für die
Herstellung von Destillaten oder Ethylalkohol landwirtschaftlichen Ursprungs für Spirituosen und andere alkoholische Getränke), Sellerie, Senf, Sesamsamen,
Schwefeldioxid und Sulphite in Konzentrationen von
mehr als 10 mg/kg, Lupinen und Weichtiere. Um die
richtige Kennzeichnung überprüfen zu können, müssen diese Lebensmittelkomponenten in Spuren nachgewiesen werden können.
Was sind Lebensmittelallergien?
Lebensmittelallergien zählen zu den Nahrungsmittelunverträglichkeiten. Diese können nach einer Klassifizierung der European Academy of Allergy and Clinical
Immunology aus dem Jahr 1995 wie folgt eingeteilt
werden: Es gibt toxische, an welchen jeder erkranken
würde, und nicht-toxische Reaktionen auf Nahrungsmittel bzw. deren Bestandteile, die nur bei bestimmten
Personen auftreten. Bei den nicht-toxischen können
immunologische (Lebensmittelallergien) und nicht-immunologische Reaktionen (Lebensmittelintoleranzen)
unterschieden werden. Lebensmittelintoleranzen können enzymatisch, pharmakologisch oder anders (wofür
noch keine Klassifizierung existiert) verursacht werden.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Von einer Allergie spricht man nur, wenn es sich um
eine Fehlreaktion des Immunsystems handelt, d. h. der
Körper erkennt bestimmte Lebensmittelbestandteile
(eigentlich bestimmte enthaltene Proteine) als körperfremd und bekämpft diese. Am häufigsten treten IgE
vermittelte Allergien auf. (IgE gehört zu den Immunglobulinen und wird gemeinsam mit IgG, IgD, IgM und IgA
vom körpereigenen Immunsystem produziert. Nähere
Informationen dazu unter Immunsystem-Antigene/Antikörper). Der Mechanismus für diesen Typ von Allergie
sieht etwa wie folgt aus:
1. Sensibilisierung: Erster Kontakt mit einem bestimmten Protein führt zur Bildung von IgE, es kommt
aber noch zu keiner allergischen Reaktion. Die gebildeten IgE binden an Mastzellen.
2. Allergische Reaktion: Bei erneutem Kontakt mit
demselben Protein bindet dieses an zwei der bereits
existierenden IgE an der Mastzelle, wodurch es zu einer
Quervernetzung dieser kommt. Die Mastzelle wird dadurch aktiviert und schüttet Mediatoren wie z. B. Histamin aus, welche zur Auslösung einer allergischen Reaktion führen.
Allergische Reaktionen können von Individuum zu
Individuum verschieden stark sein und sich anhand anderer Symptome zeigen sowie verschiedene Organe involvieren. Sie können zu relativ harmlosen Hautrötungen und Juckreiz über Bauchschmerzen, Durchfall und
andere Erkrankungen des Gastrointestinaltrakts bis hin
zu einem anaphylaktischen Schock und wegen HerzKreislauf-Stillstand sogar zum Tod führen.
Bereits geringste Mengen allergener Verbindungen
können bei empfindlichen Personen zu heftigen Reaktionen führen. Eine allergische Reaktion kann nur
durch komplettes Meiden der Lebensmittel, auf die eine
Person allergisch ist, verhindert werden. Daher ist der
Nachweis in geringen Mengen wichtig.
Immunsystem – Antigene/Antikörper
Das Immunsystem reagiert auf das Eindringen von
Fremdkörpern (körperfremde Proteine – Antigene
[AG]) mit der Bildung von Antikörpern (AK). Die Antikörper (Immunglobuline – Ig) gehören zur Klasse der
Globuline. An bestimmten Regionen der AK, den sogenannten Epitopen, können AG gebunden werden, wobei die AG nur in bestimmten Sequenzteilen, dem Paratop, gebunden werden können.
1 Richtlinie 2007/68/EG die Änderungen der „Richtlinie 2000/13/
EG zur Angleichung der Rechtsvorschriften der Mitgliedstaaten
über die Etikettierung und Aufmachung von Lebensmitteln sowie die Werbung hierfür“ auf Grund neuer wissenschaftlicher
Erkenntnisse vorsah.
13
Unser Körper produziert eine Unzahl unterschiedlicher Antikörper gegen die verschiedenen Fremdkörper. Trotzdem können die AK in fünf Klassen entsprechend der unterschiedlichen genetischen Codierung
der schweren Ketten (siehe später) eingeteilt werden:
Immunglobulin G (IgG) – liegt als Monomer vor;
dominierende AK-Klasse im Blut; wird bei erstmaligem
Kontakt mit einem Erreger erst später gebildet, bleibt
dann aber lange erhalten; einzige AK-Klasse, die von
der Mutter auf das Kind übergeht und dieses in den ersten Lebenswochen schützt.
Immunglobulin A (IgA) – liegt als Monomer im Serum vor; wichtigste AK in den Körpersekreten (als Dimer); hoher Anteil von IgA in der Muttermilch wichtiger Schutzfaktor gegen Brech- und Durchfallserkrankungen des Säuglings.
Immunglobulin M (IgM) – liegt meist als Pentamer
vor; vorwiegend im Blut; wird bei Erstkontakt mit einem Erreger zuerst gebildet.
Immunglobulin D (IgD) – liegt als Monomer vor;
geringe Mengen in der Blutflüssigkeit.
Immunglobulin E (IgE) – liegt als Monomer vor;
geringe Mengen in der Blutflüssigkeit; vor allem membrangebunden auf Mastzellen; verantwortlich für viele
allergische Erkrankungen.
®
Aufbau eines Antikörpers
Jeder Antikörper besteht aus zwei identischen
schweren Ketten und zwei identischen leichten Ketten.
Diese sind über Disulfidbrücken konvalent verbunden
und bilden eine Ypsilon-förmige Struktur aus. Die Ketten können in Domänen (Aminosäuresequenzbereiche) unterteilt werden. Eine leichte Kette besteht aus einer variablen und einer konstanten Domäne und eine
schwere Kette aus einer variablen und drei (IgG, IgA,
IgD) oder vier (IgM, IgE) konstanten Domänen. Die Antigenbindungsstelle wird aus den variablen Domänen
einer leichten und einer schweren Kette gebildet. Somit
verfügt ein AK stets über zwei Epitope.
Nachweismethoden für potenziell
allergene Lebensmittelinhaltsstoffe
Die am häufigsten eingesetzten Methoden basieren
entweder auf dem Nachweis von Proteinen (enzymatisch, immunanalytisch [ELISA]) oder auf dem Nachweis
der DNA eines bestimmten Lebensmittels (PCR bzw.
meist Real-time-PCR). Es können entweder die tatsächlich allergenen Proteine (soweit sie überhaupt schon
identifiziert sind) bzw. die dafür kodierende DNA oder
aber beliebige mitunter nicht allergene für das Lebensmittel spezifische Komponenten nachgewiesen werden.
Weitere Möglichkeiten für die Detektion bieten andere immunnochemische Methoden, wie RAST (RadioAllergoSorbentTest; radioaktiv markierte IgE werden
verwendet) oder EAST (enzymmarkierte IgE werden
verwendet), Immunoblotting, Rocket-Immunoelektrophorese, Radioimmunoassay, Immunofloureszenzassay und Luminoimmunoassay, die alle Allergene auf
Proteinebene nachweisen können.
PCR und Real-time-PCR
PCR steht für Polymerasekettenreaktion (polymerase
chain reaction). Die Methode ist der in jedem Lebewesen
14
stattfindenden DNA-Amplifikation nachempfunden. Diese In-vitro-Amplifikation von DNA wurde 1983 von Kary
Mullis „erfunden“, wofür er 1993 den Nobelpreis erhielt.
Für den Nachweis auf DNA-Ebene muss aus dem Lebensmittel DNA in ausreichender Menge und Reinheit
extrahiert werden. Diese wird bei der Reaktion eingesetzt und dient als Templat. Außerdem kommen in die
Reaktionsmischung noch Primer (spezifische Oligonukleotide) und eventuell eine fluoreszenzmarkierte Sonde. Ein kommerziell erhältlicher Supermix, der die Nukleotide (Desoxynukleosid-Triphosphate-dNTPs) sowie Cl.–- und Mg2+-Ionen enthält und eventuell einen
Fluoreszenzfarbstoff, der sich unspezifisch in jegliche
Doppelstrang-DNA einlagert, wird ebenfalls zugegeben. Die Oligonukleotide, die als Primer dienen sollen,
müssen komplementär zu den Strängen der TemplatDNA und für diese spezifisch sein. Sie definieren den zu
amplifizierenden Abschnitt der DNA. Die Spezifität
muss zuerst mit reiner DNA unterschiedlicher Lebensmittelbestandteile getestet werden und stellt sich mitunter als recht kompliziert heraus, weshalb das Primerdesign viel zeit in Anspruch nehmen kann. Falls mit einer
Sonde gearbeitet werden soll, muss diese, ebenfalls ein
Oligonukleotid, komplementär zu einem Strang in dem
Abschnitt, der amplifiziert wird, liegen.
Die Reaktion läuft nach folgendem Schema ab:
1. Schritt: Die Doppelstrang-DNA (also jegliche
DNA in der Probe inkl. der interessierenden – der Templat-DNA) wird bei 94–95°C in die zwei Einzelstränge
gespalten.
2. Schritt: Bei einer niedrigeren Temperatur (zwischen 52 und 62°C), der sogenannten Annealing-Temperatur, lagern sich die spezifischen Primer an die Templat-DNA an.
3. Schritt: Zu den zwei Einzelsträngen wird der jeweils komplementäre mit Hilfe eines Enzyms, wie z. B.
der Taq-Polymerase (Taq = thermus aquaticus; hitzestabiles Enzym aus Taq-Bakterien, die in Geysiren leben;
früher wurde eine nicht temperaturbeständige Polymerase verwendet
diese musste nach Schritt 1, in dem
sie denaturiert, stets neu zur Reaktionsmischung hinzugefügt werden), aufgebaut. Dieser Schritt kann entweder ebenfalls bei der Annealing-Temperatur stattfinden
oder aber bei 72°C, da dies die optimale Temperatur für
die Polymerase ist.
Diese drei Schritte ergeben einen Zyklus. Es werden
meist etwa 40–60 Zyklen durchgeführt. Abbildung 1
zeigt eine anschauliche Darstellung der pro Zyklus ablaufenden Schritte.
Rein theoretisch ergibt sich eine Verdoppelung der
DNA nach jedem Zyklus und somit ein exponentielles
Wachstum (nach n Zyklen 2n). Daraus ergibt sich, dass
im Prinzip eine Doppelstrang-Templat-DNA zum Nachweis ausreicht. In der Praxis sollten doch etwa 10.000
Templatmoleküle vorliegen und auch exponentielles
Wachstum findet nicht während der gesamten Reaktion
statt. Bei den ersten Zyklen ist noch kein exponentielles
Wachstum zu beobachten, vermutlich da die Wahrscheinlichkeit, dass sich Templat, Primer und Enzym
zur passenden Zeit treffen, recht klein ist. Die Vermehrung steigt mit zunehmender Templatmenge an und
nach einigen Zyklen mit exponentiellem Wachstum
nimmt der Anstieg auf Grund von Hemmungen im Reaktionsgemisch wieder ab.
®
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Abbildung 1: Die Pfeile stellen die Primer dar. Diese als Start für die Strangsynthese dienenden Oligonukleotide werden nach dem
Abbildung 1: Amplifikationsschritt (Elongationsschritt) nicht mehr als Pfeil dargestellt, da sie jetzt Teil der Doppelstrang-DNA sind.
Bei einer Real-time-PCR kann die Amplifikation
durch Einsatz eines Fluoreszenzfarbstoffs und Messung
des Fluoreszenzsignals am Ende eines Zyklus in Echtzeit mitverfolgt werden. Eine typische Amplifikationskurve einer Real-time-PCR zeigt einen sigmoiden Verlauf (siehe Abbildung 2).
Es gibt entweder die Möglichkeit, einen unspezifisch
in Doppelstrang-DNA einlagerbaren Farbstoff oder
eine fluoreszenzmarkierte Sonde zu verwenden. Die
Sonde kann in verschiedenen Arten wie z. B. Taq-Man,
molecular beacons oder scorpion, ausgeführt sein.
Wird die Methode mit Sonde gewählt, bedeutet ein Signalanstieg auch gleichzeitig einen positiven Nachweis,
wenn die Spezifität der Primer gegeben ist. Beim Arbei-
Abbildung 2: Die Abbildung zeigt das Fluoreszenzsignal (PCR Base Line substrated Curve Fit RFU) einer positiven Kontrolle (PC)
Abbildung 2: sowie einer negativen Kontrolle (NC), aufgetragen gegen die Zyklenzahl. Die Kurve der PC zeigt den typisch sigmoiden
Abbildung 2:Kurvenverlauf, während die NC kein Signal liefert.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
15
ten mit einem unspezifischen Fluoreszenzfarbstoff
muss zur Absicherung eine Schmelzkurve aufgenommen werden, da mitunter auch andere DNA-Stränge als
die Ziel-DNA vermehrt werden und somit ein Signal liefern. Diese weisen dann aber meist einen anderen
Schmelzpunkt auf. Sind die Schmelzpunkte ebenfalls
gleich oder ähnlich, besteht die Möglichkeit einer weiteren Überprüfung der Gleichheit bzw. Unterschiedlichkeit durch eine Auftrennung der Größe nach mittels
Gel-Elektrophorese. Somit ist die Aussage über einen
positiven Nachweis in diesem Fall schwieriger.
Zur Kontrolle, ob die Amplifizierung funktioniert,
muss immer eine positive Kontrolle, die sicher die Templat-DNA enthält und eine negative Kontrolle, die anstatt jeglicher DNA nur Wasser enthält, gemacht werden. Außerdem muss zur Quantifizierung stets eine
Standardkurve erstellt werden.
ELISA
ELISA steht für Enzym-Linked Immunosorbent Assay. Der Nachweis nützt die spezifische Wechselwirkung zwischen AG und AK und eine enzymatische Reaktion zum Sichtbarmachen. Es gibt zwei gängige Varianten, die zur Detektion von Lebensmittelallergenen
eingesetzt werden, den Sandwich-ELISA und den kompetitiven ELISA.
AK-Herstellung
Für immunologische Nachweismethoden werden
Antikörper, die gegen die nachzuweisenden Proteine
gerichtet sind, benötigt. Diese werden aus Tieren, die
mit den entsprechenden Proteinen immunisiert werden, gewonnen. Bildet ein Tier Antikörper gegen die
injizierte Substanz, dann können diese aus dem Blut
isoliert werden (z. B. bei Hasen) oder im Falle von Hühnern aus den Eiern gewonnen werden.
Sanwich-ELISA:
1. Schritt: Coaten: auf einer Mikrotiterplatte (mit 96
Kavitäten) wird ein gegen das zu bestimmende Protein
gerichteter Antikörper (AK1) gebunden.
2. Schritt: Blocken: Es wird eine Proteinlösung
(meist Casein) zugegeben, um alle möglicherweise freien Stellen an den Wänden der Kavitäten zu besetzen
und somit unspezifische Bindung des AG zu verhindern.
3. Schritt: Zugabe des AG (Probe oder Standard [in
verschiedenen Konzentrationen]) und Zugabe eines
weiteren, gegen das AG gerichteten AK (AK2). Das AG
liegt dann wie in einem Sandwich zwischen zwei AK.
4. Schritt: Zugabe eines gegen AK2 gerichteten AK,
welcher mit einem Enzym (meist Meerrettich-Peroxidase) markiert ist.
5. Schritt: Zugabe eines passenden Substrats. Dieses
wechselt idealerweise von farblos zu einem gefärbten
Produkt, wodurch eine photometrische Messung ermöglicht wird.
6. Schritt (eventuell): Stoppen der Reaktion durch
Zugabe von H2SO4, wodurch das Enzym denaturiert
und somit eine weitere Farbveränderung verhindert
wird.
Zwischen den Schritten 1–4 erfolgt jeweils ein
Waschschritt. Zur Veranschaulichung der Arbeitsschritte dient Abbildung 3.
Bild A1 zeigt die nach dem Coaten gebundenen AK1
(vgl. Schritt 1).
Bild B1 zeigt die Reaktion der gebundenen AK1 mit
dem zugegebenem AG und die Reaktion des AK2 (im
Überschuss) mit den AG. Es bilden sich Komplexe AK1AG-AK2 und AG-AK2. Letztere werden im Waschschritt
dann weggewaschen (vgl. Schritt 3).
Bild C1 zeigt die Reaktion mit enzymmarkiertem AK,
der gegen den AK2 gerichtet ist (vgl. Schritt 4).
Bild D1 zeigt die Umwandlung des Substrats in Produkt durch das Enzym (vgl. Schritt 5).
Kompetitiver ELISA
1. Schritt: Coaten: Auf einer Mikrotiterplatte wird in
jede Kavität eine Proteinlösung des zu bestimmenden
Proteins mit bekannter Konzentration pipetiert. Somit
wird das sogenannte Coating-AG an den Gefäßwänden
gebunden.
2. Schritt: Blocken (siehe Sandwich-ELISA).
3. Schritt: Zugabe des zu bestimmenden Proteins
(AG) unbekannter Konzentration oder eines Standards
sowie Zugabe des gegen das AG gerichteten AK (im
Unterschuss) es findet eine Konkurrenzreaktion zwischen dem AG in Lösung und dem gebundenen Coating-AG statt (daher der Name kompetitiv).
4. Schritt: Zugabe eines zweiten AK gegen den ersten AK gerichtet, welcher mit einem Enzym markiert ist.
5. Schritt: Zugabe eines Substrats.
6. Schritt (eventuell): Stoppen der Reaktion.
®
A1
B1
C1
Abbildung 3: Sandwich-ELISA: Das Rechteck stellt den Querschnitt einer zylinderförmigen Kavität
Abbildung 3: (Tiefe: ~15 mm, Durchmesser: ~5 mm) der Mikrotiterplatte dar.
Abbildung 3:
16
… AG;
… AK1;
… AK2;
D1
… mit Enzym markierter AK; S … Substrat; P … Produkt
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
A2
Abbildung 4: kompetitiver EISA
Abbildung 4:
… Coating-AG;
B2
… AG;
C2
… AK;
Zwischen den Schritten 1–4 erfolgt jeweils ein
Waschschritt. Die Versuchsschritte sind in Abbildung 4
veranschaulicht.
Bild A2 zeigt die nach dem Coaten gebundenen AG
(vgl. Schritt 1).
Bild B2 zeigt die Reaktion der AK (im Überschuss)
mit den Coating-AG und dem zugegebenen AG. Es findet eine Konkurrenzreaktion statt (vgl. Schritt 3).
Bild C2 zeigt die (nach dem Wegwaschen von in Lösung befindlichem AG- und AG-AK-Komplex) Reaktion
mit enzymmarkiertem AK, der gegen den ersten AK gerichtet ist (vgl. Schritt 4).
Bild D2 zeigt die Umwandlung des Substrats in Produkt durch das Enzym (vgl. Schritt 5).
In beiden Fällen erfolgt eine photometrische Messung. Auf einer Platte muss stets eine Standardreihe mitgemessen werden, um eine Standardkurve erstellen zu
können. Diese ermöglicht eine Quantifizierung. Standardkurven haben typischerweise einen sigmoiden
Verlauf. Die Abbildungen 5 und 6 zeigen die Standardkurven, die mit beiden ELISAs zum Nachweis von Sesam erstellt wurden.
PCR oder ELISA?
Welche Nachweismethode (PCR, ELISA) verwendet
wird, bleibt jedem selbst überlassen. Es gibt Vor- und
Nachteile für alle vorgestellten Methoden. Es muss prinStandardkurve eines Sandwich-ELISAs
Absorption bei 450 nm,
aufgetragen gegen die Proteinkonzentration (Sesamprotein)
in ng/ml
Abbildung 5: Mit steigender Proteinkonzentration steigt auch das
Signal, da mehr AG an die AK1 gebunden wird und somit mehr AK2
sowie enzymmarkierter AK gebunden werden können. Dadurch
wird in gleicher Zeit mehr Substrat in Produkt umgewandelt.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
D2
… mit Enzym markierter AK; S … Substrat; P … Produkt
Standardkurve eines Sandwich-ELISAs
Absorption bei 450 nm,
aufgetragen gegen die Proteinkonzentration (Sesamprotein)
in ng/ml
Abbildung 6 Das Signal nimmt mit steigender Proteinkonzentration ab, da in der Konkurrenzreaktion mehr AG in Lösung
vorhanden ist und dadurch weniger AK an Coating-AG gebunden wird. Daher wandeln bei höherer Proteinkonzentration weniger Enzyme Substrat in Produkt um und es kommt in gleicher
Zeit zu einem geringeren Signal.
zipiell berücksichtigt werden, dass die in Lebensmitteln
nachzuweisenden Inhaltsstoffe weder allein auftreten
noch roh sein müssen. Daher muss eine entwickelte
Nachweismethode stets bezüglich ihrer Spezifität validiert werden. Außerdem muss berücksichtigt werden,
ob und wie stark das Lebensmittel verarbeitet wurde, da
bei Verarbeitungsprozessen sowohl die DNA als auch
die Proteine denaturiert werden könnten und somit ein
Nachweis unmöglich gemacht wird. Weiters liefert ein
Nachweis eines Inhaltsstoffes zwar eine Bestätigung
der Kennzeichnungspflicht, sagt aber nichts über die
Allergenität des Lebensmittels aus. Denn dafür müsste
eindeutig sichergestellt sein, dass die für die Allergenität verantwortlichen Proteine enthalten und nicht denaturiert sind bzw. ob nicht bei einem Verarbeitungsschritt einige Proteine durch Konformationsänderungen zu allergen wirksamen Komponenten wurden.
Aus diesen Gründen ist die Entwicklung und Validierung solcher Nachweismethoden extrem schwierig und
die Aussagekraft beschränkt.
Literatur:
Stef, J., Koppelman, Sue L. Hefele: Detecting allergens in food.
CRC Press, 1 edition (2006)
Hans-Joachim Müller: PCR-Polymerase-Kettenreaktion. Spektrum
Akademischer Verlag, 1. Edition (2001)
17
Cornel Müllhardt: Der Experimentator Molekularbiologie/Genomics. Spektrum Akademischer Verlag, 5. Auflage (2006)
Terence A. Brown: Gentechnologie für Einsteiger. Spektrum Akademischer Verlag, 3. Auflage (2002)
Eva Untersmayr, Erika Jensen-Jarolim: Mechanism of type I food
allergy. Pharmacology & Therapeutics, Volume 112, December
2006; Center of Physiology and Pathophysiology, MedUni
Wien (abstract online verfügbar unter
www.sciencedirekt.com).
http://www.lmsvg.net/component/option,com_docman/task,doc_view/gid,257/
http://www.med4you.at/laborbefunde/lbef_immunglobuline.htm (Stand Juni 2010)
http://www.ilo.at/textphp?M_ID=7 (Stand Juni 2010)
Kurznachrichten
„Wir machen Erkenntnis möglich“
50 Jahre DESY
DESY begeht mit einem Festakt
sein 50-jähriges Jubiläum
Am 18. Dezember 1959 wurde DESY per Staatsvertrag zwischen der Stadt Hamburg und der Bundesrepublik Deutschland gegründet. Der Gründungsvater
und erste Direktor Prof. Willibald Jentschke wollte das
aufblühende Forschungsfeld der Teilchenphysik mit einem konkurrenzfähigen Teilchenbeschleuniger mit unter die Lupe nehmen. 1964 ging der erste Beschleuniger, der dem Forschungszentrum seinen Namen gab, in
Betrieb: das Deutsche Elektron-Synchrotron. Auf den
damals größten Beschleuniger folgten die Speicherringe DORIS 1974, PETRA 1978 und HERA 1990. An all diesen Beschleunigern wurde das Innerste der Materie
gründlich erforscht, indem Kollisionen von subatomaren Teilchen in teilweise hausgroßen Detektoren vermessen wurden. Unter anderem wurde so an PETRA
das „Gluon“ entdeckt, das Klebeteilchen, das die Kräfte
zwischen den Quarks übermittelt und diese Elementarteilchen bildlich gesprochen zusammenhält, und HERA
hat die komplizierte Struktur des Protons genauestens
aufgelöst. Dieses Wissen ist in die Lehrbücher eingeflossen und hilft folgenden Experimenten wie dem Large Hadron Collider LHC am CERN bei der Analyse der
Daten.
Von Beginn an erschlossen sich die Forscherinnen
und forscher bei DESY aber auch ein zweites Forschungsfeld, das sich mit der Nutzung der Teilchenbeschleuniger eröffnete: die Forschung mit Synchrotronlicht. Dieses spezielle Licht wird von den Teilchen im
Beschleuniger ausgestrahlt und macht diese Beschleuniger zu den hellsten Röntgenquellen der Welt. Das
Synchrotronlicht der DESY-Beschleuniger DORIS und
PETRA III ermöglicht genaueste Einblicke in den Nanokosmos, die mit supraleitenden Linearbeschleunigern
ausgestatteten Freie-Elektronen-Laser FLASH und European XFEL, der 2014 in Betrieb geht, werden sogar
Filmaufnahmen aus dem Nanokosmos erlauben. Mit
diesen Blicken in die Nanowelt kann man die Funktion
von Biomolekülen oder Materialien auf atomarer Ebene
erforschen – die Voraussetzung für die Entwicklung
neuer Medikamente oder moderner Werkstoffe. Bestes
Beispiel für den Erfolg auf diesem Gebiet ist der Chemie-Nobelpreis der Forscherin Prof. Ada Yonath, die 18
Jahre lang eine Max-Planck-Arbeitsgruppe bei DESY
leitete und hier die Struktur und Fktion des Ribosoms
entschlüsselte.
Mit einem feierlichen Festakt begeht das Forschungszentrum DESY, Deutschlands größtes Beschleunigerzentrum, heuer sein 50-jähriges Jubiläum. Rund 2.500
Gäste aus aller Welt werden dazu erwartet. Seit seiner
Gründung Ende 1959 hat sich DESY zu einer internationalen Kultstätte für Grundlagenforschung entwickelt,
das Leitmotiv: „Wir machen Erkenntnis möglich“. Die
50 Jahre Spitzenforschung waren geprägt von bahnbrechenden Entdeckungen in der Forschung mit Photonen
und in der Teilchenphysik sowie revolutionären Entwicklungen in der Beschleunigertechnologie.
In der Teilchenphysik zählt dazu die Entdeckung des
Gluons, des Trägerteilchens einer der vier Grundkräfte
der Natur, genauso wie die weltbeste Bestimmung der
Struktur des Protons und der Nachweis der elektroschwachen Vereinigung. In der Forschung mit Photonen
lieferte DESY herausragende Beiträge zu unserem Verständnis von Atomen, Molekülen und Funktionsmaterialen sowie von biologischen Systemen, die unter anderem zum Chemie-Nobelpreis 2009 für Ada Yonath
geführt haben. Und in der Beschleunigerphysik ist die
supraleitende TESLA-Technologie, die unter DESY-Federführung entwickelt wurde, die führende Technik für
aktuelle Linearbeschleunigerprojekte.
Was bei der Gründung als nationales Zentrum für die
Teilchenphysik gedacht war, hat sich also gewissermaßen selbst beschleunigt – zu einem der weltweit führenden Zentren in der Strukturforschung. „Heute steht
DESY als weltweit anerkannte Größe in seinen drei Forschungsbereichen da“, sagt der Vorsitzende des DESYDirektoriums Helmut Dosch. „Mit PETRA III und FLASH
haben wir bei DESY die besten Röntgenquellen zur Untersuchung der Struktur und Funktion der Materie weltweit, und unsere Teilchenphysiker sind eine tragende
Säule für die Experimente des LHC. Wir sind starker
Partner des Röntgenlasers European XFEL undbauen
dessen 2,1 Kilometer langen supraleitenden Elektronenbeschleuniger.“
18
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
MATHEMATIK
Dr. Norbert Brunner und Mag. Walther Janous
Mathematische Geographie mit DERIVE
Helmut Brunner
Geographisch motivierte Fragen aus dem Erfahrungsschatz der Schüler sind gute Ansatzpunkte zum
Nachdenken: Warum geht die Flugroute bei der Urlaubsreise von Europa in die USA zuerst weit nach Norden, manchmal sogar über Grönland? Wenn auf der
Erde zwei oder mehr Orte sehr weit voneinander entfernt sind, spielt bei solchen Fragen die Kugelgestalt der
Erde eine Rolle. Dieser Beitrag löst solche Fragen auf
Schulniveau, also ohne sphärische Trigonometrie, mit
Vektorrechnung und Differentialrechnung.
Jeder Ort auf der Erde (Kugelradius r) ist eindeutig
durch zwei Koordinaten bestimmt, nämlich (Abbildung
1) die geographische Breite (j ) und die geographische
Länge (l). Diesen Koordinaten entspricht der Ortvektor
r (Vektoren: kursiv-fett gedruckte Kleinbuchstaben)
vom Erdmittelpunkt zum Punkt X (x , y , z ) mit den
Komponenten
x = r × cos(j )× cos(l ), y = r × cos(j )× sin(l ),
(1).
r × sin(j ),
Dabei bewegen sich die Winkel l im Bereich von –180° (W von Greenwich) bis +180° (O von Greenwich) und der Winkel j im Bereich von –90° (S-Pol) bis
+90° (N-Pol). Diese „geographischen Kugelkoordinaten“ unterscheiden sich von den „mathematischen Kugelkoordinaten“ (die Länge beginnt mit 0° beim N-Pol),
was bei der Verwendung von mathematischen Formelsammlungen berücksichtigt werden muss.
z
=
Abbildung 1. Geographische Kugelkoordinaten.
Spezielle Kreise sind die Meridiane (Längenkreise),
wo l konstant bleibt, die Breitenkreise, wo j konstant
bleibt, und die Großkreise: Ein Großkreis hat als Mittelpunkt den Kugelmittelpunkt 0 und sein Radius ist gleich
dem Kugelradius. Meridiane sind Beispiele für Großkreise. Der Äquator (Breitenkreis mit j = 0) ist der einzige Breitenkreis, der ein Großkreis ist.
Die Berechnungen erfolgen mit DERIVE oder einem
anderen Computeralgebra-System. Da in DERIVE die
Winkel im Bogenmaß eingegeben werden, sollte man
für die Vektoren das folgende Schema benützen:
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Aufruf des Vektors: Declare, Vektor, Dimension: 3
Eingabe: COS(PI*a/180)*COS(PI*b/180),
COS(PI*a/180)*SIN(PI*b/180), SIN(PI*a/180)
Mit Manage, Substitute ersetzt man hierauf a durch j
und b durch l.
Die Berechnung erfolgt schließlich mit Approx.
1. Entfernung zweier Orte
Wir suchen die kürzeste Flugbahn zwischen Orten
mit gegebenen geographischen Koordinaten, also von
A(j 1, l 1 ) nach B (j 2, l 2 ). Man ermittelt sie, indem man
Globus einen Faden zwischen A und B spannt. Rechnerisch gilt: Die kürzeste Verbindung zweier Orte auf einer Kugel verläuft entlang des Großkreises durch die
beiden Orte. Man ermittelt ihn, indem man die Ebene
durch 0, A und B mit der Kugel schneidet. Der kürzeste
Abstand, also die Länge des Großkreisbogens zwischen
A und B, ist d = a × r , der Winkel a zwischen A, 0 und B
in der Großkreisebene, mal dem Kugelradius r. Den
Winkel a zwischen A und B berechnet man aus deren
Ortvektoren (Länge r) mit dem skalaren Produkt als:
a×b
= cos (a ).
r2
Beispiel. Wir wählen zwei Orte auf demselben Breitenkreis:
A: j = 40 °, l = 0 °, B: j = 40 °, l = 120 °
Wir berechnen die kürzeste Entfernung auf dem
Großkreis und dann die Entfernung auf dem Breitenkreis. In beiden Fällen genügt es, auf der Einheitskugel
zu rechnen (r = 1) und dann das Ergebnis mit dem Erdradius zu multiplizieren. Die Punktkoordinaten auf
der Einheitskugel sind nach Formel (1):
A(0, 766044 0 0, 642788) und
B (-0,383022 0, 663414 0, 642788).
Distanz am Großkreis: Da die Richtungsvektoren zu
A, B Einheitsvektoren sind, erhält man den Winkel a
mit a × b = 0,119763 = cos(a ) und (in DERIVE Notation) a = ACOS(0.119763) = 1,45074 rad. Die Entfernung d = a × r zwischen den Punkten auf der Erde (r =
6.371 km) ist dann d = 9.243 km.
Weg entlang des Breitenkreises: Die Weglänge erhält
man, indem man den Radius des Breitenkreises, nämlich r × cos(a ), mit der Differenz der Längenwinkel im
Bogenmaß (d. h. der Winkel zwischen den Punkten in
der Breitenkreisebene) multipliziert. Der Radius des
Breitenkreises ist 6.371 × cos(40 × 180 ) = 4.880 km, daher
die Weglänge 4.880 × 120 × 180 = 10.222 km.
Die Entfernung auf dem Großkreis ist also um 979 km
kürzer, als der Weg entlang des Breitenkreises.
p
p
19
Um die kürzeste Flugbahn praktisch zu bestimmen,
verwendet man am besten Karten in der gnomischen
Projektion (Abbildung 2).
Abbildung 2. Gnomische Projektion durch den Nordpol N.
An die Erdkugel wird bei dieser Kartenkonstruktion
eine Tangentialebene gelegt. Der Punkt A auf der Erdoberfläche wird mit dem Schnittpunkt A¢ der Geraden
durch A und den Erdmittelpunkt 0 mit der Kartenebene
identifiziert. Im Sonderfall der gnomischen Projektion
auf die Tangentialebene durch den Nordpol N gilt:
Wenn A die Koordinaten j und l hat, dann liegt A¢ auf
dem Kreis um N mit dem Radius NA¢ = r × cot (j ) unter
dem Winkel l zur x-Achse.
Bei der gnomischen Projektion erscheinen Großkreise als Geraden: Sie sind der Schnitt der Großkreisebene
mit der Kartenebene. Bei der Projektion auf die Tangentialebene durch den Nordpol (Abbildung 3) werden
zudem die Breitenkreise als Kreise wiedergegeben.
kreisebene E durch A, B ist eindeutig durch die Radiusvektoren a, b gemäß Formel (1) bestimmt, ihre Gleichung lautet:
(2).
a × x + b × y + c × z = 0 mit a 2 + b 2 + c 2 = 1
Dabei sind a, b, c die Komponenten des Einheitsnormalvektors n. Er ist das Vektorprodukt a × b, dividiert
durch die Länge von a × b. Der Großkreis ist die Schnittkurve der Ebene (2) mit der Einheitskugel (3):
(3).
x2 + y2 +z2 = 1
Gesucht ist der nördlichste Punkt C (x , y , z ) der Flugbahn: Für ihn muss z maximal werden unter den beiden
Nebenbedingungen (2) und (3) und der Bedingung,
dass z am kürzeren der beiden Großkreisbögen durch
A und B liegt.
Kandidaten für Extremwerte erhält man mit der Methode der Lagrange-Multiplikatoren (hier L und M). Wir
betrachten die Funktion F,
F = z + L (a × x + b × y + c × z ) + M (x 2 + y 2 + z 2 - 1),
von der alle partiellen Ableitungen gleich Null gesetzt
werden. Das liefert die Gleichungen (2), (3) und
F x = L × a + 2 × M × x = 0, F y = L × b + 2 × M × y = 0,
F z = 1 + L × c + 2 × M × z = 0.
DERIVE liefert folgende Lösungen (südlichster und
nördlichster Punkt), die mit der Bedingung
a 2 + b 2 + c 2 = 1 vereinfacht werden:
c
c
x = ±a × , y = ±b × und z = m 1 - c 2 .
z
z
Zur Überprüfung, ob ein Lösungspunkt auf der Flugbahn liegt, berechnet man l mit (1) und vergleicht mit
den Werten l 1 und l 2. Da x = cos(j )× cos(l ) und
z = sin(j ) folgt in DERIVE Notation (im Bogenmaß):
x ö
xö
æ
÷ = ACOS ç ±
÷.
è
j
cos
cø
( )ø
è
Falls l nicht zwischen l 1 und l 2 liegt, wird der nördlichste/südlichste Punkt der Flugbahn bei A oder B angenommen.
Beispiel. Wir wählen wieder die zwei Orte auf demselben Breitenkreis (auf der Einheitskugel: z =
0,642788):
A: j = 40 °, l = 0 °, B: j = 40 °, l = 120 °.
Mit dem Einheitsnormalvektor (Vektorprodukt und
Normierung) erhalten wir:
a = 0,429526, b = 0,743961, und c = -0,511889.
Daraus folgt für den nördlichsten Punkt auf der Einheitskugel
x =0,255944, y = 0,443309, und z = 0,859052,
was in geographischen Koordinaten der Punkt C in der
Mitte der Flugbahn ist;
C: j = 59,2103 °, l = 60 °.
l =
Gnomische Projektion
x ¢ = r × cot(j) × cos(l), y ¢ = r × cot(j) × sin(l)
æ
ACOS ç
Abbildung 3. Kürzester Weg (Kartenquelle: Wikipedia)
2. Nördlichster Punkt der Flugbahn
Auf der Karte in gnomischer Projektion (Abbildung
3) ist der nördlichste Punkt C der Flugbahn der dem
Nordpol nächste Punkt auf der Geraden zwischen den
Kartenpunkten A¢ und B ¢. Dadurch kann diese Aufgabe
mittels ebener Geometrie gelöst werden: In der Karte ist
der Punkt C ¢ der Fußpunkt der Normalen auf A¢B ¢, falls
er innerhalb der Strecke liegt; sonst ist einer der Randpunkte der nördlichste Punkt.
Die Extremwertaufgabe lässt sich auch direkt rechnerisch lösen.1 Es genügt, nur die Einheitskugel (r = 1) zu
betrachten. Die von den Vektoren aufgespannte Groß-
20
3. Bemerkung:
Parameterdarstellung für Großkreise
Diese Rechnungen liefern auch eine Parameterdarstellung für den Großkreis in geographischen Koordinaten. Wir setzen in der Gleichung (2) für x, y, z die Formeln (1) ein und leiten eine Gleichung für l als Funktion von j ab. DERIVE liefert:
1 Vgl. für Tabellenkalkulation H. Brunner: Kürzester Abstand
zweier Orte auf der Erdkugel, Wissenschaftliche Nachrichten,
September 1995, S. 28. Mit dem Solver Add-In von Excel lässt
sich die Aufgabe auch direkt lösen.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
sin(l ) =
-b × c × sin(j ) ± a ×
2
cos(j )
-c
2
(3).
2
2
(a + b )× cos(j )
Auch aus (3) erhält man (ohne Differentialrechnung)
wieder die maximale nördliche Breite: cos(j ) = c. Zu
jedem kleinerem j gibt es zwei Parameterwerte l,
was darauf beruht, dass ein Großkreis von einem Breitenkreis in zwei Punkten geschnitten wird. In unserem Zahlenbeispiel (A: j = 40 °, l = 0 °, B: j = 40 °,
l = 120 °) folgt
0,3796 × sin j ± cos 2 j - 0,2605
sin(l ) =
0, 7394 × cos j
4. Bemerkung: Loxodrome
Die einfachste Art der Navigation ist es, immer einem
konstanten Kurs zu folgen. Unter dem Kurs versteht
man dabei den Winkel a zwischen der Flugbahn und
dem aktuellen Meridian (Abbildung 4). Die Bahnkurve
ist dann eine Loxodrome. Je kleiner der Abstand zwischen Punkten ist, desto geringer ist dabei die Abweichung von der wegoptimalen Bahnkurve, weswegen in
der Seefahrt Bahnen aus Loxodromen-Stücken zusammen gesetzt werden.
Abbildung 4. Kursberechnung.
Aus Abbildung 4 folgt (mit r
Kugelradius)
tan(a )
.
Ds × cos (a ) = r × Dj und
=
Dj
cos(j )
Wenn der Kurs a konstant ist, liefert das eine Differentialgleichung für die Loxodrome mit der Lösung
=
Dl
(j 2 - j 1 )
æ
æj
pöö
und l = tan(a )× log ç tan ç + ÷ ÷ (4).
è2
è
cos(a )
4øø
Mit einer geeigneten Kartendarstellung (Seekarten
mit der winkeltreuen Mercator-Projektion) erscheint
eine Loxodrome als Gerade.
s
=
r
×
5. Bemerkung zur Bahngeometrie
Die Berechnung der Flugbahn auf der Kugel beruht
auf Dreiecksberechnungen. Wie im Fall der Ebene liegen auch auf der Kugel die Punkte B, die einen festen
Abstand d von einem gegebenen Punkt A haben, auf ei-
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
nem Kreis (Schnitt eines Kegels mit der Kugel): Wenn a
und b ihre Richtungsvektoren sind und r der Kugelra( a × b)
dius, dann gilt für das skalare Produkt
. Deshalb
r2
lassen sich viele klassische Dreiecksaufgaben auf der
Kugel in fast gewohnter Weise lösen.
Zum Beispiel sei die Grundlinie AB eines Dreiecks
auf der Nordhalbkugel gegeben. Gesucht ist ein Punkt
X auf der Nordhalbkugel mit vorgegebenen Abständen
a, b zu A und B.
Diese Aufgabe führt auf ein Gleichungssystem für die
Komponenten x, y, z des Ortvektors x von X:
æa ö
æb ö
a × x = cos ç ÷ , b × x = cos ç ÷ , x × x = r 2,
èr ø
èr ø
(5).
r = 6.371 km
Beispiel. Es seien die Orte A(j = -10 ° , l = 15 ° ) und
B (j = 30 ° , l = 80 ° ) gegeben und die Abstände
7.100 km von A und 3.998 km von B vorgegeben. Um j
und l für X zu bestimmen, können wir auf der Einheitskugel rechnen, mit
A(0, 95125 0,25489 - 0,173648),
B (0,15038 0, 852868 0,5)
Die Winkel zwischen a und x bzw. b und x sind
7.100
3.998
a =
= 1,11442 rad sowie b =
= 0,62757 rad.
6.371
6.371
Die Gleichungen lauten dann
a × x = 0, 95125 × x + 0,25489 × y - 0.173648 × z =
= cos (1,11442 ),
b × x = 0, 0,15038 × x + 0, 852868 × y + 0.5 × z =
2
2
2
= cos ( 0, 62757 ), x + y + z = 1 .
Die ersten beiden Gleichungen liefern
x = 0,356478 × z + 0,219332 × y =
= 0, 910425 - 0.649113 × z ,
daraus die dritte Gleichung die beiden Lösungen
z = 0,76604 und z = -0,103713. Die erste Lösung führt
zu x = 0,492403 und y = 0,413175.
Wegen (1) gilt z = sin(j ), daher j = 50 °, und es gilt
y = cos(50 ° )sin(l ), daher l = 40 °. Bei der zweiten Lösung ist X nicht auf der Nord-Halbkugel.
Als Anwendung von (5) folgt für die Seitensymmetrale: Die Punkte, die von A und B gleichen Abstand besitzen, sind die Schnittmenge der Ebene a × x = b × x mit
der Kugel. Sie ist ein Großkreis. Die Normalprojektion
dieser Menge auf die x , y -Ebene bildet dann eine Ellipse. Im Sonderfall, dass A, B auf demselben Breitenkreis
liegen, ist diese Kurve der Meridian mit der Länge
æ l1 + l2ö
l = ç
÷.
è
2 ø
Anschrift des Verfassers:
HR Dr. Helmut Brunner, Kaiser-Franz-Ring 22, 2500 Baden
21
Wie Trurl zwei volle Batterien
identifizierte
Axel Born und Gerhard J. Woeginger
Stanislaw Lem erzählt in seinen „Robotermärchen“
die Abenteuer der Roboterwesen Trurl und Klapauzius.
Die beiden sind geniale Konstrukteure, die mit ihren Erfindungen oft die Welt durcheinander bringen. In einer
der Geschichten bauen sie eigenhändig einen Dämonen zweiter Ordnung, welcher magisch, thermodynamisch, unsklavisch und statistisch ist und aus einem alten Fass oder auch nur aus einem Niesen Informationen
über alles extrahieren und sammeln kann, was war, was
ist, was sein kann und was sein wird. Eine andere Geschichte erzählt, wie Trurl ein Femmefatalotron baut,
um den Prinzen Bellamor von dessen Liebesqualen zu
erlösen, und wie es danach zum Babybombardement
kommt. Und einmal baut Trurl eine Maschine, die alles
erschaffen kann, was mit dem Anfangsbuchstaben N
beginnt (und insbesondere das NICHTS).
In einer anderen Geschichte besucht Trurl den Klapauzius, und will sich von diesem zwei Gigabatterien
ausleihen. Klapauzius zeigt ihm einen Haufen mit vierzehn Gigabatterien und sagt: „Unter diesen vierzehn
Batterien befinden sich sieben leere Batterien und sieben volle. Du kannst Dir zwei volle Batterien heraussuchen, indem Du sie paarweise in den Gigabatterientestapparat steckst. Der Testapparat läuft eine Stunde,
und sagt Dir dann ob beide getestete Batterien voll
sind.“ Trurl fragt: „Und was passiert, wenn eine getestete Batterie voll und die andere getestete Batterie leer
ist?“ Worauf Klapauzius antwortet: „ In diesem Fall
läuft der Testapparat eine Stunde lang und liefert danach ein negatives Ergebnis, genau wie in den Fällen,
in denen beide Batterien leer sind.“ Trurl: „Aha. Und
bist Du Dir auch wirklich sicher, dass da sieben volle
Batterien darunter sind? Es wäre nicht das erste Mal,
dass du so wichtige Dinge durcheinander bringst!“
Klapauzius: „Nun ja, ich bin mir ziemlich sicher. Und
wenn Du gar kein Risiko eingehen willst, dann musst
Du halt solange testen, bis der Gigabatterientestapparat positiv reagiert.“
Wie soll Trurl seine Tests organisieren, sodass er
auch im schlechtesten Fall nach möglichst wenigen
Stunden zwei volle Batterien gefunden hat? Wir wollen
Trurls Problem auf 2n Batterien verallgemeinern
(n ³ 3), von denen n leer und n voll sind.
Wir werden zeigen, dass Trurl auf jeden Fall in n + 3
Stunden zwei gute Gigabatterien identifizieren kann,
und dass es keine Vorgehensweise gibt, die ihm eine
bessere Zeit garantiert.
Eine Strategie für 2n Batterien
Trurl teilt die 2n Batterien in n - 3 Gruppen mit je
zwei Batterien und in zwei Gruppen mit drei Batterien
auf. Da es in den n - 1 Gruppen genau n volle Batterien
gibt, muss mindestens eine der Gruppen mindestens
zwei volle Batterien enthalten. Trurl testet daher ein-
22
fach jedes mögliche Paar in jeder Gruppe, und findet
nach höchstens (n - 3 )× 1 + 2 × 3 = n + 3 Stunden zwei
volle Batterien. Genau genommen könnte Trurl sich
den allerletzten Test ersparen, da dieser Test auf jeden
Fall positiv ausfallen muss, falls Klapauzius sich nicht
geirrt hat. Aber dieses Risiko will Trurl nicht eingehen.
Ein negatives Resultat für alle möglichen
Strategien
Wir betrachten eine beliebige Strategie für Trurl, und
wir wollen annehmen, dass diese Strategie auf jeden
Fall nach höchstens n + 2 Stunden ein gutes Batterienpaar identifizieren kann. Wir werden im folgenden zu
dieser Annahme einen Widerspruch herleiten, indem
wir die ersten n + 2 Tests samt und sonders negativ ausfallen lassen.
Betrachten wir einmal eine beliebige Teilmenge M
mit n Batterien. Falls Trurl nach n + 2 Stunden kein einziges Paar in M getestet hat, dann könnten die Batterien
in M genau die vollen Batterien sein. Alle bisherigen
Tests waren negativ, und Trurl muss mindestens ein
weiteres Paar in der Menge M testen, um sich seiner
Sache wirklich sicher zu sein. Wir halten daher fest:
Trurls Strategie muss nach n + 2 Stunden mindestens ein
Paar aus jeder n-elementigen Batterienteilmenge getestet haben (*).
Wir formulieren nun ein Optimierungsproblem aus
der stetigen Optimierung. Für die i-te Batterie
(1 £ i £ 2n) führen wir eine entsprechende reelle Variable x i ein, und fassen diese Variablen als
x = (x 1, ¼, x 2n ) zusammen. Unsere Zielfunktion ist
f (x ) =
å
2n
i =1
x i2 + 2
å{
i , j } ÎT
x i x j , wobei die Summie-
rung in der zweiten Summe über alle Batterienpaare
{i , j } ÎT läuft, die Trurl in den ersten n + 2 Stunden getestet hat.
Das Optimierungsproblem lautet
å
unter å {
min f (x ) =
2n
i =1
x i2 + 2
i , j } ÎT
å{
i , j } ÎT
xi x j
xi = 1
x i ³ 0 für 1 £ i £ 2n.
Wir optimieren also eine stetige Funktion f (x ) über
einer beschränkten und abgeschlossenen (und daher
kompakten) Teilmenge des R 2n . Nach dem Satz von
Weierstrass gibt es dann einen Punkt im Definitionsbereich, in dem die Funktion ihr Minimum annimmt. Unter allen diesen minimierenden Punkten suchen wir uns
nun einen Punkt (x 1, ¼, x 2n ) heraus, in dem möglichst
viele Koordinaten gleich 0 sind. Weiters führen wir die
Menge P = {i : x i > 0} aller strikt positiven Koordinaten
in diesem Punkt ein.
Angenommen, es gibt zwei Batterien a und b mit
a , b ÎP und {a , b} ÎT . Dann sei S a die Summe aller
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Werte x k mit {a , k} ÎT und k ¹ b , und es sei Sb die Summe aller Werte x k mit {b , k} ÎT und k ¹ a . Wir nehmen
ohne Beschränkung der Allgemeinheit S a £ Sb an.
Wenn wir in unserer Optimallösung (x 1, ¼, x 2n ) die
Werte x a und x b respektive durch x a + x b und durch 0
ersetzen, so erhalten wir einen anderen zulässigen
Punkt im Definitionsbereich. Der alte Beitrag von x a
und x b zum Funktionswert f (x ) ist
x a2 + x b2 + 2S ax a + 2Sbx b + 2x ax b .
Der neue Beitrag x a + x b und 0 zum Funktionswert
f (x ) ist
(x
+ x b ) + 0 2 + 2S a (x a + x b ) + 2Sb × 0 + 2(x a + x b )× 0.
2
a
Die Differenz zwischen altem und neuen Beitrag ist
2x b (Sb - S a ) ³ 0.
Daher hat der neue Punkt keinen schlechteren Funktionswert als der alte Punkt und gleichzeitig mehr 0-Koordinaten als der alte Punkt. Dieser Widerspruch zeigt,
dass alle Batterienpaare a , b ÎP auch {a , b} ÏT erfüllen. In anderen Worten: Trurl hat nach den n + 2 ersten
Stunden kein einziges Batterienpaar a , b ÎP getestet.
Die Aussage (*) impliziert dann p := P £ n - 1.
Es sei nun y 1, ¼, y p eine Aufzählung aller Zahlen x i
2n
p
mit i ÎP . Dann gilt natürlich k = 1 y k = i = 1 x i = 1. Da
å
å
im minimierenden Punkt alle Produkte x i x j mit
{i , j } ÎT gleich 0 sind, kann man weiters nachrechnen,
dass
p
2n
(1).
f (x ) =
x i2 +2
xi x j =
y k2
å
i =1
å
{i , j } ÎT
å
k =1
Die Ungleichung zwischen dem geometrischen Mittel und dem arithmetischen Mittel besagt
1
1
(2).
y k2 ³
yk
p
p
Aus (1) und (2) schließen wir unter Verwendung von
p
y = 1 und p £ n - 1, dass
k =1 k
p
1
1
(3).
f (x ) =
y k2 ³ ³
p
n
-1
k =1
Schlussendlich wollen wir noch den Funktionswert
f (x ) in jenem Punkt betrachten, in dem alle Koordina1
sind. Dieser Funktionswert beträgt
ten gleich
(2n )
å
å
å
å
T
1
, und er ist natürlich eine obere Schranke
+
(2n ) 2n 2
für den kleinstmöglichen Funktionswert. Mit erhalten
wir dann
T
1
1
(4).
+ 2 ³ f (x ) ³
2n 2n
n -1
und schlussendlich
2n 2
(5).
T ³
-n > n +2
n -1
Daher muss Trurl mehr als n + 2 Batterienpaare getestet haben. Trurl benötigt mindestens n + 3 Stunden um
mit absoluter Sicherheit ein funktionstüchtiges Batterienpaar zu identifizieren. Unser Argument ist abgeschlossen.
( )
Schlussbemerkungen
Man kann unsere Fragestellung natürlich auf viele
weitere Arten verallgemeinern: Wie soll Trurl zum Beispiel zwei gute Batterien finden, wenn er n volle und 2n
leere Gigabatterien vor sich liegen hat? Oder wenn er n
volle und 10n leere Gigabatterien vor sich hat? Die beste
Strategie teilt die Batterien immer in n - 1 Gruppen von
möglichst gleicher Größe ein, und testet dann einfach
jedes Batterienpaar in jeder Gruppe. Das entsprechende Optimalitätsargument folgt unserem obigen Beweis.
Die mathematischen Grundlagen unserer Analyse
stammen aus der Graphentheorie. Der wichtige Satz
im Hintergrund ist der sogenannte Satz von Turán (Pál
Turán: On an extremal problem in graph theory. Matematikai es Fizikai Lapok 48, 1941, 436–452, in ungarischer Sprache). Unser elegantes Argument mit dem
stetigen Optimierungsproblem folgt im wesentlichen
den Ideen von Theodore Motzkin und Ernst Strauss
(Maxima for graphs and a new proof of a theorem of
Turán. Canadian Journal of Mathematics 17, 1965,
533–540).
Anschriften der Verfasser:
Axel Born: ORG Ursulinen, Leonhardstraße 62, 8010 Graz.
Gerhard J. Woeginger: TU Eindhoven, P.O. Box 513,
5600 MB Eindhoven, Niederlande.
Ein zensiertes Regressionsmodell
für Schlachtdaten von Bioschweinen
Florian Bernardi, Norbert Brunner, Georg-Michael Geisberger, Manfred Kühleitner und Christine Leeb
1. Problemstellung
Aufzeichnung und Auswertung von Daten gehören
mit zu einer erfolgreichen Schweinemast. Was aber tun,
wenn Daten nur unvollständig vorhanden sind? Im Rahmen eines vom Landwirtschaftsministeriums geförderten Projekts1 BEP Bioschwein stellte sich die Frage, wie
hoch in der Endphase der Mast die mittlere Gewichtszu-
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
nahme eines Schweins pro Tag ist. Dadurch ist es möglich, auf der Basis der zu erwarteten Preisentwicklung
zu entscheiden, ob höhere Endgewichte der Schweine
im Hinblick auf die längere Mastdauer rentabel sind.
1 BEP Bioschwein, Einführung und Monitoring von „BetriebsEntwicklungs-Plänen (BEP) Tiergesundheit und Wohlbefinden“ in österreichischen Bioschweinebetrieben, Forschungsprojekt Nr. 100188, BMLFUW -LE.1.3.2/0134-II/1/2006.
23
Werden tägliche bzw. wöchentliche Gewichtsaufzeichnungen gemacht, so berechnet man die mittleren
Gewichtszunahmen problemlos mit Hilfe der linearen
Regression, welche in Excel mittels Trendlinie zugänglich ist. Im vorliegenden Fall wurde das Gewicht eines
Schweins aber nur einmal, nämlich zum Schlachtzeitpunkt gemessen.
Konkret wurden 18 Ferkel mit einem Durchschnittsgewicht von 45 Kilogramm in einer Bucht eingestallt
und unter gleichen Bedingungen gemästet. (Es handelt
sich um etwas ältere Ferkel; üblich sind 10 Wochen alte
Ferkel mit rund 30 bis 35 kg.) Zum Verkauf gelangten
sukzessive die schwersten Tiere. Nur diese wurden
zum Verkaufszeitpunkt gewogen.2 Tabelle 1 erfasst das
Lebendgewicht dieser Tiere. (Nicht erfasst wurde allerdings das Geschlecht.)
Tabelle 1. Verkaufsdaten von Schweinen aus einer Mastbucht.
Masttage Anzahl Schlachtschweine
164
4
172
10
186
4
Lebendgewichte (kg)
150, 156, 157, 158
148, 150, 151, 153, 153,
154, 154, 156, 158, 161
143, 146, 147, 150
Die naheliegende Methode zur Bestimmung der mittleren Gewichtszunahme wäre die lineare Regression.
Nur, warum sollte man die Gewichte von 18 verschiedenen Tieren, wo von jedem Tier nur ein Gewichtswert, nämlich der zum Verkaufszeitpunkt vorliegt, mittels Trendlinie verbinden? Tatsächlich liefert diese Vorgehensweise keine brauchbare Schätzung für die Gewichtszunahme. Die Regressionslinie fällt und aus ihrer
Formel liest man ab: Die Tiere scheinen pro Tag 0,42 kg
an Gewicht zu verlieren! Dies liegt jedoch nicht daran,
dass die Tiere eine Fastenkur besuchen, sondern ist
durch die Systematik der Datenerfassung bedingt: Nur
die schwersten Tiere werden in Tabelle 1 berücksichtigt. Sie verschwinden nach dem Verkauf aus dem Datensatz, während die leichteren Tiere zunächst ignoriert
werden. Es handelt sich demnach um einen zensierten
Datensatz. Die Behandlung solcher Daten erfordert
eine eigene Methode.
2. Methode
Um eine Regressionslinie für zensierte Daten zu berechnen, wenden wir die Maximum Likelihood (ML)
Methode an und nehmen für das mittlere Gewicht m der
Schweine zum Zeitpunkt t (in Tagen, 164 £ t £ 186) einen linearen Zuwachs an:
(1)
m (t ) = a + b × t
Die Funktion (1) ist die ML-Schätzung der Gewichte.
Die Abweichung der tatsächlichen Gewichte von diesem Schätzwert ist zufällig. Wir nehmen dafür eine Normalverteilung mit der zeitunabhängigen Varianz s an.
Die Wachstumsparameter a, b und die Varianz s kennen wir nicht. Wir berechnen sie durch Maximierung
der Likelihood.
Wenn ein Schwein zum Zeitpunkt t das Gewicht x
hat, so beträgt die Likelihood für diese Beobachtung
N x , m (t ), s . Hier ist N die Wahrscheinlichkeitsdichte
der Normalverteilung. Die Likelihood einer Beobachtungsreihe ist das Produkt der einzelnen Likelihoods.
Sie ist eine Funktion der unbekannten Parameter a, b
und s. Man sucht jene Parameterwerte, bei denen die
(
24
)
Likelihood der beobachteten Datenreihe maximal ist.3
Das ist die ML-Schätzung.
Bei den zensierten Daten der Tabelle 1 ist für jedes
Schwein nur das Gewicht zu einem ausgesuchten Zeitpunkt bekannt. Über die Gewichte zu den beiden anderen Zeitpunkten - und deren Likelihood - können wir
nur Vermutungen anstellen. Ohne zusätzliche Annahmen würde die ML Methode die klassische Regressionslinie liefern. Wir modifizieren daher den ursprünglichen ML-Ansatz, indem wir die Likelihood der Beobachtungsreihe zum Zeitpunkt t noch mit geeigneten
Wahrscheinlichkeiten über die vermuteten Gewichte
der nicht beobachteten Schweine multiplizieren. Unsere Annahme beruht darauf, dass die Schweine auch in
der Endphase der Mast Gewicht zunehmen.
Wir unterscheiden für jedes der 18 Schweine drei Typen A, B, C von Daten: Das gemessene Gewicht zum
Verkaufszeitpunkt (A), das vermutete Gewicht vor dem
Verkaufszeitpunkt (B) und das hypothetische Gewicht
danach (C), wenn das Schwein weiter gemästet worden
wäre.
Zu A, von einem Schwein, das zum Zeitpunkt t verkauft wird und dessen Gewicht dann x beträgt, berechnen wir die Likelihood in Excel als:
=NORMVERT x ; m (t ); s, 1
(2).
(
)
Zu B, wenn das Schwein zu einem späteren Zeitpunkt s > t verkauft und gewogen wird, dann wissen
wir zum Zeitpunkt t: Das Schwein war erstens sicher
nicht schwerer, als das leichteste zum Zeitpunkt t verkaufte Schwein, dessen Gewicht sei min(t ), und es war
zweitens sicher nicht schwerer, als zum Zeitpunkt s, wo
sein Gewicht x ist. Wir multiplizieren die obige Likelihood mit der Wahrscheinlichkeit dieser Aussage und
berechnen diese in Excel als:
=NORMVERT MIN min(t ); x ; m (t ); s, 1
(3).
(
(
)
)
Zu C, wenn das Schwein bereits zu einem früheren
Zeitpunkt f < t mit dem Schlachtgewicht x verkauft
wurde, dann wäre es zum Zeitpunkt t bei weiterer Mästung sicher schwerer geworden. Wir multiplizieren die
obige Likelihood auch mit der Wahrscheinlichkeit dafür:
(4).
=1–NORMVERT x ; m (t ); s, 1
(
)
3. Aufbereitung in Excel
Zur Auswertung dieses Modells erstellen wir ein Tabellenblatt mit der Beschriftung von Tabelle 2. In A1:C2
schreiben wir Text für die gesuchten Parameter. In den
Bereich A6:B23 tragen wir die Daten von Tabelle 1 ein.
Wir sortieren dabei die Tabelle, zuerst nach dem Verkaufszeitpunkt und bei gleichen Verkaufszeitpunkten
nach dem Gewicht. In der Spalte C berechnen wir m (t )
nach (1). In C6 steht die Formel =$A$3+$B$3*A6. Wir
kopieren diese nach unten bis in C23. In A3:C3 stehen plausible Startwerte für das Wachstumsmodell (1):
2 Bei der Planung der Verkaufszeitpunkte, die aus organisatorischen Gründen mehrere Wochen vorher fixiert werden, kann
es sinnvoll sein, auch individuelle Gewichtszunahmen abzuschätzen. So müssen schwere Tiere rechtzeitig verkauft werden, weil ab 130 kg Nutzgewicht (nach Ausschlachtung) ein
Preisabschlag erfolgt.
3 Je größer die Likelihood, desto „wahrscheinlicher“ ist die Beobachtung.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
a = 45 kg ist das Durchschnittsgewicht der Ferkel dieses speziellen Datensatzes bei der Einstallung, b = 0,5 kg
pro Schwein und Tag liegt an der unteren Grenze der
üblichen Gewichtszunahme, s = 5 kg ist die gerundete
Standardabweichung der Messdaten (Tabelle 1).
Tabelle 2. Beschriftung des Tabellenblatts.
A
1
2
3
4
5
A
45,0
B
Parameter
B
0,5
C
5,00
Tag
LG in kg
ML-Schätzer m
D
s
t:
m (t ):
min(t ):
In E3:G3 tragen wir die drei Verkaufszeitpunkte 164,
172, 186 ein. In E4:G4 berechnen wir dazu m (t ) nach
(1), und in E5:G5 stehen min(t ), d. h. die kleinsten Gewichte zu den jeweiligen Verkaufsterminen. In E5 steht
die Zahl 150 (kleinstes Gewicht zum Verkaufstermin
164), in der Zelle F5 die Zahl 148 (kleinstes Gewicht
zum Verkauftermin 172) und in der Zelle G5 die Zahl
143 (kleinstes Gewicht zum Verkaufstermin 186).
Im Bereich E6:G24 berechnen wir zu den Verkaufszeitpunkten die Likelihoods und Wahrscheinlichkeiten
entsprechend unserem Modell. Es empfiehlt sich zur
besseren Übersichtlichkeit, die Bereiche E6:E9, F10:F19
und G20:G23 (zu diesen Terminen sind diese Gewichte
bekannt) einzufärben.
Wir berechnen zuerst die Likelihoods zu den Beobachtungsdaten (A); in E6 schreiben wir die Formel
=NORMVERT($B6;E$4;$C$3;0). Anschließend kopieren wir dies in die Bereiche E6:E9, F10:F19 und
G20:G23. (Die „$“ sind so gesetzt, dass die Bezüge beim
Kopieren korrekt bleiben.)
Als nächstes berechnen wir die Wahrscheinlichkeiten zu den vermuteten Schweinegewichten (B); in E10
schreiben wir =NORMVERT(MIN(E$5;$B10);E$4;$C$3;1)
und kopieren dies in den Bereich E10:E23 und F20:F23.
Abschließend berechnen wir die Wahrscheinlichkeiten der hypothetischen Schweinegewichte (C). In F6
schreiben wir =1–NORMVERT($B6;F$4;$C$3;1). Wir
kopieren die Formel in die Bereiche F6:F9 und G6:G19.
Zur Berechnung der maximalen Likelihood maximieren wir statt des Produkts die Summe der Logarithmen der Likelihoods. Dazu schreiben wir in H6 die Formel =LN(E6) und kopieren dies in den gesamten Bereich H6:J23. In H4 bilden wir die Summe =SUMME
(H6:J23); oberhalb beschriften wir die Zelle als „LogLikelihood“.
Zur Maximierung verwenden wir den Solver: die
Zielzelle H4 soll maximal werden; die veränderbaren
Zellen sind A3:C3. Nach dem Druck auf den Lösen-Button erhalten wir den Maximalwert –85,271 für die LogLikelihood bei den Parameterwerten a = 9,218, b =
0,822 und s = 9,442.
Futtermenge erhöht wurde, da der Lieferant für Ballaststoffbeigaben ausgefallen ist.
5. Alternative Modelle
Das Problem bei der Verwendung zensierter Daten
ist es, dass wir über die nicht beobachteten Daten Vermutungen anstellen müssen. Unterschiedliche Vermutungen liefern alternative Modelle, und je weniger
Messdaten im Vergleich zu vermuteten Daten verfügbar
sind, umso mehr hängt die Schätzung von den Modellannahmen ab. Wir illustrieren dies, indem wir unser
Modell mit den Ergebnissen für alternative Modelle vergleichen.4
Variante 1: Alternatives ML-Modell
Als naheliegende Variante betrachten wir die auf (1)
gestützte Hypothese, dass die Schweine während eines
Zeitraums Dt um b × Dt kg zunehmen. Diese Annahme
führt zu folgenden Wahrscheinlichkeiten für die vermuteten bzw. hypothetischen Gewichte:
=NORMVERT MIN min(t ); x - b × (s - t ) ; m (t ); s, 1
(3a)
und
=1-NORMVERT x + b × (t - f ); m (t ); s, 1
(4a).
Wenn wir diese Formeln in das Tabellenblatt einsetzen, erhalten wir aus der ML-Schätzung die Aussage:
Das Gewicht nimmt während der Mastendphase im Mittel um 0,25 kg pro Tag und Schwein ab. Die Log-Likelihood beträgt –94,011. Da das erste Modell bei gleichen
Daten, gleicher Parameterzahl und einfacherer Struktur
eine höhere Log-Likelihood hat, verwerfen wir diese
Modellvariante.5 Die dominanten Tiere in der Bucht
wachsen demnach rascher als die anderen Tiere, die ihrerseits nach der Schlachtung der dominanten Tiere rascher zunehmen.
(
(
(
)
)
)
Variante 2: Klassische Regression
Wenn wir die Regressionslinie nur durch die gemessenen Verkaufsgewichte legen, erhalten wir einen noch
stärkeren täglichen Rückgang von 0,421 kg. Das zugrunde liegende ML-Modell postuliert, dass die Gewichte B und C keinerlei Einschränkungen unterliegen
(die Wahrscheinlichkeiten in Formeln 4 und 5 werden
gleich 1 gesetzt). Diese Annahme wäre bei der zufälligen Auswahl der verkauften Schweine, unabhängig
von ihrem Gewicht, gerechtfertigt. Hier widerspricht
das Ergebnis jedoch klar den Erfahrungstatsachen. Aus
einem positiven Anstieg der klassischen Regressionslinie lässt sich auch umgekehrt keine qualitative Aussage
gewinnen, ob die mittlere Gewichtszunahme größer ist,
als bei einem Datensatz mit fallender Regressionslinie.6
4. Ergebnis
Das Modell liefert eine geschätzte mittlere Gewichtszunahme von b = 0,822 kg pro Tag und Schwein in der
Endphase der Mast. Dieses Resultat ist mit den Erfahrungswerten des Betriebs kompatibel. Diese Zunahme
in der Endphase liegt im Mittel über den Zunahmen
während der Mast (0,5 bis 0,7 kg/d). Dies kann für den
Datensatz begründet werden, weil in der Endphase die
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
4 Eine Übersicht über verschiedene Modellannahmen und Berechnungsmethoden findet man z.B. bei Dempster et al., J. Royal Statistical Soc. B39/1977, S. 1 ff.
5 Mehr zu dieser Überlegung bei Burnham/Anderson: Model Selection and Multimodel Inference, Berlin 2002.
6 Unter den Betriebsdaten gibt es einen Datensatz mit sehr geringer errechneter Gewichtszunahme, wo die Regressionslinie
aber ansteigt, weil die Hälfte der Schweine (wegen des langsamen Wachstums) erst am Schluss verkauft wurde.
25
Variante 3: Mastendphase mit Diät
Da die Schweine in der Endphase der Mast bei zuviel
Futter leicht verfetten, gibt es auch Fütterungsstrategien, welche die Tiere in der Endphase auf Diät setzen.
In diesem Fall ist nicht auszuschließen, dass das Gewicht einzelner Tiere abnimmt. (Im Hinblick auf das Erfordernis der artgerechten Haltung, wo Jungschweine
wachsen sollen – sie wiegen als erwachsenes Tier ca.
180 bis 250 kg, dient diese Annahme nur der Illustration
der theoretischen Flexibilität des Modells.) Auch dies ist
mit unserem Tabellenblatt modellierbar: Formel (3b)
unten besagt nur: Zum Schlachten werden die fettesten
Tiere ausgesucht. Formel (4) wird nicht angewandt
(Multiplikation mit 1), weil keine Information über das
Wachstum vorhanden ist.
=NORMVERT min(t ); m (t ); s, 1
(3b).
(
)
6. Diskussion
Je mehr Messdaten verfügbar sind, umso geringer
wird die Abhängigkeit der Schätzung vom Modell. Weil
wir nur die Verkaufsdaten A erfasst haben, beruhen unsere Modellrechnungen nur zu 1/3 auf Messdaten. Unsere Ergebnisse dienen daher nur der Illustration der
Methode.
Ein Betrieb kennt (bzw. kann dies ermitteln) zusätzlich zu den Verkaufsdaten auch die Gewichte der noch
nicht verkauften Schweine (Daten B), eventuell auch
noch zu weiteren Zeitpunkten, hat also eine mehr als
doppelt so große Datenbasis. Unvermeidbar ist nur die
Zensierung bei den Daten C über die verkauften
Schweine. Diese Zensierung hat aber nicht mehr so
starke Auswirkungen auf die Schätzgenauigkeit, denn
mit ML-Schätzern wird bereits ab 50% gemessenen Daten eine Genauigkeit erzielt, die der klassischen Regression gleichkommt.7 Die Methode der zensierten Regression ist daher für Betriebe von Interesse, die ihre bisherigen Endmast-Analysen mittels klassischer Regression
unter Berücksichtigung aller verfügbaren Daten verfeinern wollen.
Unvermeidbar wird eine zensierte Regression bei allen Fragestellungen, wo nur Daten über die geschlachteten Tiere zur Verfügung stehen. Wenn zum Beispiel
befürchtet wird, dass die Gewichtszunahme bei der
Fütterungsstrategie vor allem auf Fettzunahme beruht,
wird man analog zu oben Modelle über die Fettmasse
entwickeln (mit der Hypothese: „Die verkauften Schweine sind jene mit der höchsten Fettmasse“).
Anschriften der Verfasser:
Georg-Michael Geisberger, Weilhart 3, 5134 Schwand/Innkreis
E-Mail: [email protected]
Florian Bernardi und Christine Leeb, Nutztierwissenschaften/NAS
Norbert Brunner und Manfred Kühleitner, Mathematik/DIBB
BOKU, Gregor Mendel Stasse 33, 1180 Wien
E-Mail: [email protected]
7 Dies wurde in Simulationsexperimenten bestätigt von Kuttatharmmakul et al., Analytica Chimica Acta 441/2001, S. 215 ff.
Zwei Bergsteiger in den Alpen
Axel Born und Gerhard J. Woeginger
Die beiden Bergsteiger Alfred und Berta befinden
sich auf Höhe des Meeresspiegels auf verschiedenen
Seiten eines Bergmassivs; siehe Abbildung 1. Mit ihren
primitiven Funkgeräten können die beiden nur dann
mit einander kommunizieren, wenn sie auf exakt gleicher Höhe über dem Meeresspiegel sind. Ihr Ziel ist es,
in ununterbrochenem Funkkontakt zu bleiben und sich
auf einem der Gipfel des Massivs zu treffen. Wie sollen
die beiden das anstellen?
Eine mögliche Bergtour beginnt zum Beispiel damit,
dass Alfred den ganz linken Gipfel besteigt, während
Berta gleichzeitig den ganz rechten Gipfel anvisiert. Da
die beiden Gipfel gleich hoch sind, können Alfred und
Berta dabei problemlos in ununterbrochenem Funk-
Abbildung 1: Alfred (A) und Berta (B) auf verschiedenen Seiten des Bergmassivs.
26
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Abbildung 2: Die 15 kritischen Punkte des Bergmassivs.
kontakt bleiben. Danach würde Alfred vielleicht in Richtung des nächsten Tales nach rechts absteigen, und Berta würde vielleicht gleichzeitig nach links absteigen.
Aber was passiert, wenn die beiden erst einmal auf 400 m
abgestiegen sind? Alfred hat dann das Tal erreicht, und
kann von dort nur nach oben weiterklettern. Berta steht
mitten auf einer Bergflanke und könnte sowohl nach
oben als auch nach unten weiterklettern. Sie muss aber
auf jeden Fall umkehren, um den Funkkontakt mit Alfred aufrecht zu erhalten. Mit ein wenig Nachdenken
sieht man ein, dass auch Alfred am besten sofort wieder
umkehrt.
Nun wollen wir das Problem systematisch angehen.
Wir zeichnen vier waagrechte Geraden auf Höhe von 0
m, 400 m, 1000 m und 1200 m ein, und bestimmen alle
ihre Schnittpunkte mit dem Bergmassiv. Dann nummerieren wir die Schnittpunkte dem Massiv entlang von
links nach rechts durch; siehe Abbildung 2. Diese nummerierten Punkte sind für Alfred und Berta die kritischen Punkte, in denen sie unter Umständen die Richtung ändern und umkehren werden. Ein Richtungswechsel in anderen (nicht-kritischen) Punkten wäre
sinnlos und reine Zeitverschwendung. Wir interessieren uns also für Klettersituationen, in denen Alfred und
Berta in kritischen Punkten sitzen. Wir beschreiben
eine derartige Situation durch ein Zahlenpaar (a , b ) mit
1 £ a , b £ 15, wobei Alfred im kritischen Punkt a ist,
Berta im kritischen Punkt b, und wobei die Punkte a
und b dieselbe Höhe haben. Am Anfang sind die beiden
in der Situation (1, 15 ).
Hier ist eine Klettertour, die Alfred und Berta am Gipfel 6 zusammenbringt: (1, 15 ) ® (2, 14 ) ® (3, 13 ) ®
(2, 12 ) ® (1, 11) ® (2, 10 ) ® (1, 9 ) ® (2, 8 ) ® (3, 7 ) ®
(4, 8 ) ® (5, 7 ) ® (6, 6 ). Das Bergmassiv in Abbildung 1
erlaubt also ein Happy-End. Wie sieht es mit anderen
Bergmassiven aus? Können Alfred und Berta in jeder
möglichen Berglandschaft zu einander finden?
Bergmassive über dem Meerespiegel
Wir wollen uns zuerst mit dem (realistischen) Fall
von Gebirgen beschäftigen, in denen kein einziger
Punkt unter dem Meeresspiegel liegt. Alfred und Berta
beginnen auf Meereshöhe. Wir werden zeigen, dass sie
einander dann immer treffen können.
Zuerst zeichnen wir wieder auf Meereshöhe, auf
Höhe jeden Tales und auf Höhe jeden Gipfels eine
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
waagrechte Gerade ein. Die kritischen Punkte erhalten
wir als Schnittpunkte dieser Geraden mit dem Bergmassiv. Die Höhe eines kritschen Punktes p bezeichnen wir
mit H ( p ). Wir interessieren uns für Klettersituationen
(a , b ) mit H (a ) = H (b ), in denen Alfred im kritischen
Punkt a und Berta im kritischen Punkt b ist. Zwei Situationen (a , b ) und (c, d ) heißen benachbart, falls Alfred
und Berta von (a , b ) direkt nach (c, d ) gelangen können, ohne andere kritische Situationen zu durchqueren.
Mathematisch formal sind die Situationen (a , b ) und
(c, d ) genau unter den folgenden Bedingungen benachbart:
• Alfred klettert zu einem zu a benachbarten kritischen Punkt: c = a ± 1
• Berta klettert zu einem zu b benachbarten kritischen Punkt: d = b ± 1
• Um den Funkkontakt aufrecht zu erhalten, müssen
Alfred und Berta entweder gleichzeitig nach oben klettern: H (a ) < H (c ) und H (b ) < H (d ). Oder sie müssen
beide gleichzeitig nach unten klettern: H (a ) > H (c )
und H (b ) > H (d ).
Abbildung 3 zeigt uns die kritischen Situationen für
das Bergmassiv aus Abbildung 1. Benachbarte Situationen sind jeweils durch eine Linie mit einander verbunden. Sehen wir uns das Bild einmal ein wenig genauer
an: Die Situationen (4, 10 ) und (10, 4 ) sind isolierte
Punkte, die nicht vom Startpunkt (1, 15 ) aus erreicht
werden können. Die meisten Situationen sind zu genau
zwei anderen Situationen benachbart. Einige Situationen sind zu vier anderen benachbart. Die Situationen in
den Ecken sind jeweils zu genau einer anderen Situation benachbart. Ganz allgemein gilt folgender Satz:
Satz 1. Die vier Ecksituationen sind jeweils zu genau
einer Situation benachbart. Alle anderen Situationen
sind zu einer geraden Anzahl von Situationen benachbart.
Beweis. Wir klassifizieren zunächst die kritischen
Punkte in vier Gruppen: (1) Gipfel, (2) Täler, (3) Bergflanken und (4) die Startpunkte von Alfred und Berta.
Dann betrachten wir eine beliebige Situation , die natürlich H (a ) = H (b ) erfüllen muss.
Angenommen, einer der beiden Punkte, sagen wir
Punkt a, ist ein Gipfel. Alfred kann den Punkt a nach
links und nach rechts, aber ausschließlich nach unten
kletternd verlassen. Falls b ebenfalls ein Gipfel ist, ergibt
das vier benachbarte Situationen. Falls b eine Bergflanke
ist, so ergibt das zwei benachbarte Situationen. Falls b ein
27
Abbildung 3: Eine graphische Darstellung der kritischen Klettersituationen.
Tal ist, gibt es gar keine benachbarten Situationen. Da
das Gebirge über dem Meeresspiegel liegt, kann b unmöglich der Startpunkt von Alfred oder Berta sein.
Angenommen, einer der beiden Punkte, sagen wir
Punkt a, ist ein Tal. Alfred kann diesen Punkt a nach
links und nach rechts, aber ausschliesslich nach oben
kletternd verlassen. Falls b ebenfalls ein Tal ist, ergibt
das vier benachbarte Situationen. Falls b eine Bergflanke ist, so ergibt das zwei benachbarte Situationen. Falls
b ein Gipfel ist, gibt es gar keine benachbarten Situationen. Falls b der Startpunkt von Alfred oder Berta ist, so
ergibt das zwei benachbarte Situationen.
Damit haben wir bereits alle Fälle analysiert, in denen einer von a oder b ein Gipfel oder ein Tal ist. Falls
beide Punkte a und b Bergflanken sind, gibt es für
(a , b ) genau zwei benachbarte Situationen. Falls beide
Punkte a und b Startpunkte von Alfred oder Berta sind,
können sich die beiden nur synchron nach oben bewegen; das ergibt genau eine benachbarte Situation. Damit haben wir alle möglichen Fälle behandelt. q.e.d.
Wir bezeichnen nun mit N (a , b ) die Anzahl der
Nachbarn der Situation (a , b ). Weiters bezeichnen wir
mit E die Menge aller jener Situationen, die von der
Startsituation aus erreichbar sind.
Satz 2. Die Summe aller Werte N (a , b ) mit (a , b ) ÎE
ist eine gerade Zahl.
Beweis. Wenn zwei Situationen (a , b ) und (c, d ) aus E
benachbart sind, dann wird dies sowohl in N (a , b ) als
auch in N (c, d ) gezählt. Jedes Nachbarspaar liefert deshalb einen Beitrag von 2 für die Summe. q.e.d.
Die Startsituation (linker oberer Eckpunkt) liegt auf
jeden Fall in E, und trägt 1 zur betrachteten Summe bei.
Da die Gesamtsumme aber gerade ist, muss es noch
eine andere Situation in E geben, die einen ungeraden
Wert zur Summe beiträgt. Laut unserem ersten Satz
28
kommen dafür aber nur die Situationen in den anderen
drei Eckpunkten in Frage. Diese drei Situationen haben
(1) Alfred und Berta zusammen in Alfreds Startpunkt;
(2) Alfred und Berta zusammen in Bertas Startpunkt; (3)
Alfred in Bertas Startpunkt und Berta in Alfreds Startpunkt. In (1) und (2) haben die beiden bereits zusammen gefunden. In (3) haben sie die Plätze gewechselt,
und dabei müssen sie sich unterwegs getroffen haben.
Es gibt also auf jeden Fall eine erreichbare Situation in
E, in der Alfred und Berta zusammenfinden.
Allgemeine Bergmassive
Wie sieht es für Alfred und Berta nun im allgemeinen
Fall aus, wenn das Bergmassiv teilweise auch unter
dem Meerespiegel liegen darf? Das Gebirge könnte
zum Beispiel aus zehn Hügeln bestehen, die allesamt
100 m hoch sind, und die durch neun Täler von einander getrennt werden, die jeweils 10m unter den Meeresspiegel reichen. Es ist nicht schwierig, Alfred und Berta
in diesem speziellen Beispiel zusammen zu bringen.
Aber es gibt auch andere (bösartigere) Beispiele, in
denen ein Treffen unmöglich wird: Nehmen wir an,
dass das Gebirge aus einem 100 m hohen und einem
200 m hohen Hügel besteht, und dass zwischen den
beiden Hügeln ein Tal liegt, das bis 10 m unter den Meeresspiegel reicht. Dann ist ein Treffen ausgeschlossen.
Der Leser kann zur Übung die neun kritischen Punkte
dieses Gebirges bestimmen, und dann daraus alle Situationen ableiten, die von der Startsituation aus erreichbar sind.
Anschriften der Verfasser:
Axel Born: ORG Ursulinen, Leonhardstrasse 62, 8010 Graz.
Gerhard J. Woeginger: TU Eindhoven, P.O. Box 513,
5600 MB Eindhoven, Niederlande.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Zu den Teilsummen
der harmonischen Reihe
Gerald Kuba
Die Divergenz der harmonischen Reihe
1+ + + + + + + + +
1
2
1
3
1
4
1
5
1
6
1
7
1
8
1
9
1
10
+
1
11
+
1
12
+
1
13
+¼
zählt zu den bekanntesten und meistdiskutierten Phänomenen in der Mathematik und bleibt doch irgendwie
rätselhaft. Wenn man will, kann man einen Vergleich
mit Beethovens späten Streichquartetten anstellen, die
zu den meistanalysierten Werken der Musikliteratur
zählen und trotzdem wahrlich geheimnisvoll geblieben
sind.
Betrachtet man die Folge H 1, H 2, H 3, H 4 , ¼ der Teilsummen der harmonischen Reihe,
n
1
H n :=
(n = 1, 2, 3, 4, ¼),
k =1 k
die naturgemäß eine streng monoton wachsende Folge
ist, deren Glieder alle im Intervall 1, ¥ liegen, so lässt
sich feststellen:
Im Intervall 1, 10 liegen genau 12.367 Folgenglieder, im Intervall 10, 100 liegen bereits exakt
å
[ [
[
[
[
[
15.092.688.622.113.788.323.693.563.264.538.101.449.847.130
Folgenglieder, wie John W. Wrench im Jahre 1968 berechnet hat. Ferner liegen (gerundet) 4.057091 × 10 86
Folgenglieder im Intervall 100, 200 und 1.090594 × 10 130
im Intervall 200, 300 und 2.931644 × 10 173 im Intervall
300, 400 und 7.880602 × 10 216 im Intervall 400, 500 .
Im doch recht kurzen Intervall 999, 1000 liegen rund
6.991981 × 10 433 Folgenglieder.
Anfangs noch locker gestreut, wird die Folge in rasanter Weise immer dichter. Betrachtet man die Menge
M = H n n Î N Ç 100, ¥ aller Folgenglieder, die
nicht kleiner als 100 sind, so ist diese Menge als diskrete
Menge natürlich nicht im streng topologischen Sinne
dicht im Intervall 100, ¥ , cum grano salis ist sie aber
sozusagen numerisch dicht: Nach der Zählung von
Wrench muss zwangsläufig zwischen zwei reellen Zahlen im Intervall 100, ¥ , deren Abstand nicht kleiner als
die numerisch vernachlässigbare Größe 10 -15 ist, stets
eine Zahl aus der Menge M liegen. Im Gegenzug hat M
eine Eigenschaft, die topologisch dichte Teilmengen
der Zahlengerade gar nicht haben können: M kann
nach der natürlichen Größe ihrer Elemente abgezählt
werden.
Die numerische Dichte der Menge M lässt sich erheblich steigern und auf die gesamte Zahlengerade ausdehnen, wenn man die Menge
D = H n - H m n, m Î N \ {0} aller Differenzen von
zwei verschiedenen Teilsummen der harmonischen
Reihe betrachtet. Die Menge D, die natürlich genau die
Zahlen der Form
1
1
1 ö
± æç +
+¼+
÷ (m, k Î Z, m ³ 2, k ³ 0 )
èm m +1
m +k ø
enthält, ist dann offensichtlich wirklich dicht auf der gesamten Zahlengeraden: Für alle reellen Zahlen a, b mit
a < b gibt es unendlich viele Zahlen x Î D , sodass
a < x < b gilt. Da D naturgemäß nur rationale Zahlen
[
[
[
[
[
[
{
} [
[
[
[
[
[
{
[
[
[
}
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
[
enthält, ist die Frage naheliegend, ob D nicht etwa bereits alle rationalen Zahlen ¹ 0 umfasst. Dies trifft nicht
zu, da merkwürdigerweise keine ganze Zahl in der
Menge D liegt.
Satz 1. Die Menge D enthält keine ganze Zahl.
Bevor wir Satz 1 beweisen, wollen wir einen vewandten Satz formulieren, der sich viel kürzer und einfacher als Satz 1 erledigen lässt. Wir betrachten statt der
gewöhnlichen harmonischen Reihe die harmonische
Primzahlenreihe
1
2
+ 13 + 15 + 71 + 111 + 131 + 171 + 191 + 231 + 291 + 311 + 371 +¼
Dieselbe ist bekanntlich ebenfalls divergent, naturgemäß aber wesentlich langsamer als die harmonische
Reihe. Ist P1, P2, P3, ¼ die Folge der Teilsummen der
harmonischen Primzahlenreihe, dann ist die Menge
D := Pn n Î N È Pn - Pm m, n Î N Ù m < n
aller Summen der Form
1
1
1
+
+¼+
(m, k Î Z, m ³ 1, k ³ 0 )
pm pm + 1
pm + k
wo p 1, p 2, p 3, ¼ die wachsende Folge aller Primzahlen
ist, natürlich auch dicht, aber aus definitorischen Gründen selbstverständlich nur in R Ç 0, ¥ . Analog zu
Satz 1 gilt der
{
} {
}
[
[
Satz 2. Die Menge D enthält keine ganze Zahl.
Wir beweisen gleich eine wesentlich allgemeinere
Aussage, die zugleich eine Möglichkeit, Satz 1 zu beweisen, aufzeigt.
Satz 3. Ist p eine Primzahl und sind
m 0 , m 1, m 2, ¼, m n ganze Zahlen ¹ 0 dergestalt, dass
m 0 durch p teilbar ist, aber die Zahlen m 1, m 2, ¼, m n
alle nicht durch p teilbar sind, so ist
S = m 0-1 + m 1-1 + m 2-1 + ¼ + m n-1 niemals eine ganze Zahl.
Insbesondere gilt stets S ¹ 0.
Beweis. Wäre nämlich S eine ganze Zahl, dann hätten
wir
1
1
1
1
=S -¼m0
m1 m2
mn
und somit
1
M
=
m 0 m 1 × m 2 ×¼× m n
für irgendeine ganze Zahl M. Die daraus folgende Gleichung m 0 × M = m 1 × m 2 ×¼× m n wäre aber unmöglich,
weil ihre linke Seite durch die Primzahl p teilbar ist,
ihre rechte Seite aber nicht, q. e. d.
Aus Satz 3 folgt nicht nur Satz 2, sondern das wesentlich allgemeinere
Korollar 1. Für jede endliche Menge P ¹ Æ von
1
Primzahlen ist
keine ganze Zahl.
p ÎP p
Es ist nicht nur Satz 2 bzw. Korollar 1 eine unmittelbare Konsequenz von Satz 3, sondern auch folgendes Korollar, das viele Spezialfälle von Satz 1 erledigt.
å
29
Korollar 2. Es sei a ¹ 0 eine ganze Zahl und p eine
Primzahl, die a teilt. Ferner seien m, n nichtnegative
ganze Zahlen, die kleiner als p sind. Dann ist
a +n
1
k
k =a-m
keine ganze Zahl.
Beweis. In der Sequenz
{a - m, a - m + 1, ¼, a - 1, a , a + 1, ¼, a + n - 1, a + n}
ist a die einzige Zahl, die durch p teilbar ist.
Tatsächlich erledigt Korollar 2 nicht nur viele Spezialfälle von Satz 1. Unter Zuhilfenahme des folgenden
wohlbekannten tiefen Resultats der analytischen Zahlentheorie ist Satz 1 für hinreichend lange Sequenzen
bewiesen.
å
Proposition 1. Für jede ganze Zahl n > 1 enthält
das Intervall n < x < 2n mindestens eine Primzahl.
Proposition 1 ist die berühmte Vermutung von Joseph
Bertrand aus dem Jahre 1845, die 1850 von Pafnuty
Tschebytscheff bewiesen wurde. Im Folgenden formulieren wir ein kleines, aber feines Lemma, das wesentlich auf Proposition 1 beruht und für unsere Zwecke
zentral ist.
Lemma 1. Für 1 £ a < b ist, falls vorhanden, die
größte Primzahl p im Intervall a £ x £ b die einzige
ganze Zahl im Intervall, die von p geteilt wird.
Beweis. Wenn es so ein p Î a , b gibt, dann kann
kein ganzzahliges Vielfaches von p im Intervall a , b
liegen. Denn sonst läge ja bereits 2p darin und dann
gäbe es nach Proposition 1 aber eine Primzahl im Teilintervall p < x < 2 p im Widerspruch zur Voraussetzung, dass p die größte Primzahl im Intervall a £ x £ b
ist.
Nun ist es leicht, Satz 1 in folgender Abschwächung
zu beweisen:
k
1
Für jede positive ganze Zahl m ist die Summe
n
n =m
für kein k ³ 2m ganzzahlig.
Beweis. Ist k ³ 2m ungerade, dann ist die ganze Zahl
k +1
größer als m und außerdem gibt es eine Primzahl p
2
zwischen k 2+ 1 und k + 1. Diese Primzahl p liegt somit in
der Menge {m, m + 1, ¼, k}. Ist k ³ 2m gerade, dann ist
die ganze Zahl k2 ³ m und außerdem gibt es eine Primzahl p zwischen k2 und k. Diese Primzahl p liegt somit
in der Menge {m, m + 1, ¼, k}: Wir können somit eine
Primzahl p in der Menge {m, m + 1, ¼, k} wählen, die
die größte Primzahl dieser Menge ist. Wegen Lemma 1
teilt p keine andere Zahl in dieser Menge und daher ist
k
1
nach Satz 3 garantiert nicht ganzzahdie Summe
n =mn
lig.
Unabhängig voneinander haben Sylvester im Jahre
1892 und Schur im Jahre 1929 folgende Verallgemeinerung von Proposition 1 bewiesen, mit der man Satz 1
schließlich vollständig erledigen kann.
[ ]
[ ]
å
å
Proposition 2. Für ganze Zahlen m > k > 0 gibt es
immer eine Primzahl p größer als k dergestalt, dass irgendein Vielfaches von p im Intervall m £ x < m + k
liegt.
Beweis von Satz 1. Zu zeigen ist, dass
1
1
+
+¼+ m 1+ k für 1 £ m Î Z fest und 1 £ k Î Z beliem
m +1
big nie ganzzahlig ist. Wir können nun gleich k < m annehmen, da wir den Fall k ³ m gerade erledigt haben.
30
Nach Proposition 2 gibt es eine Primzahl p > k und ein
n Î Z mit m £ np < m + k . Ergo gilt einerseits
(n + 1)p = np + p > np + k ³ m + k , andererseits
(n - 1)p = np - p < np - k < m, also
(n - 1)p < m £ np < m + k < (n + 1)p . Im Intervall
m £ x £ m + k ist somit np die einzige Zahl, die durch
die Primzahl p teilbar ist und die gewünschte Nichtganzzahligkeit der obigen Summe folgt aus Satz 3.
Da Proposition 1 und 2 sehr tiefe Hilfsmittel sind,
wollen wir, um nicht mit Kanonen auf Spatzen zu schießen, noch einen anderen Beweis von Satz 1 geben, der
völlig elementar ist. Unser „Kanonen-Beweis“ ist allerdings kein entbehrlicher Luxus, da er uns den Weg weisen wird, eine interessante Verallgemeinerung von Satz
1 zu verifizieren.
Wir verwenden zum elementaren Beweis von Satz 1
eine Hilfsüberlegung mit folgender Notation. Jede natürliche Zahl n kann in der Form 2 r ×u mit einer ungeraden Zahl u und 0 £ r Î Z eindeutig dargestellt werden.
Wir setzen z (n ) = r . Für ungerades n gilt dann automatisch z (n ) = 0. Ist n 1 ein Teiler von n 2, dann gilt
z nn 21 = z (n 2 ) - z (n 1 ).
( )
Lemma 2. In jeder Sequenz aufeinanderfolgender
natürlicher Zahlen gibt es genau eine Zahl n, wo z (n )
maximal ist.
Beweis. Wir führen den Beweis mit Induktion nach
der Anzahl k der Zahlen in einer beliebig vorgegebenen
Sequenz. Für k = 1 und k = 2 ist die Behauptung offensichtlich richtig. Für k ³ 3 sei angenommen, dass in jeder Sequenz von weniger als k aufeinanderfolgenden
natürlichen Zahlen genau eine Zahl n auftritt, wo z (n )
maximal ist. Ist nun m + 1, m + 2, m + 3, …, m + k irgendeine Sequenz, dann streichen wir alle ungeraden Zahlen weg, halbieren die verbleibenden Zahlen und bekommen schließlich eine Sequenz von weniger als k
aufeinanderfolgenden natürlichen Zahlen. Dann gibt es
ein ausgezeichnetes n in der neuen Sequenz mit z (n )
maximal. Zwangsläufig ist dann 2n das einzige Element
der alten Ausgangssequenz, dessen Wert z (×) gleich
z (2n ) = z (n ) + 1 und somit maximal ist, q. e .d.
Mit Lemma 2 ist ein elementarer Beweis von Satz 1
nun schnell geführt. Ausgehend von
S = m1 + m1+ 1 +¼+ m 1+ k sei n Î{m, m + 1, ¼, m + k} so
gewählt, dass z (n ) = s > 0 maximal ist. Mit dem kleinsten gemeinsamen Vielfachen M der Zahlen
m, m + 1, ¼, m + k multiplizieren wir die Summe und erhalten MS als Summe ganzer Zahlen:
M × S = Mm + mM+ 1 +¼+ mM+ k . Nun haben wir aber
( )
z (M ) = s und z ( mM+ l ) > 0 für m + l ¹ n sowie
z ( Mn ) = 0. Daher sind alle Summanden gerade, ausgeM
nommen dem ungeraden Posten . Somit ist MS eine
n
ungerade Zahl. Wegen z (M ) > 0 ist aber M eine gerade
Zahl. Daher kann S unmöglich eine ganze Zahl sein,
q. e. d.
Gibt es neben den ganzen Zahlen noch weitere positive rationale Zahlen, die in der Menge D bzw. D nicht
auftreten? Dazu betrachten wir die Menge A aller positiven rationalen Zahlen, deren Dezimalbruchentwicklung nach endlich vielen Schritten abbricht. Wir haben
9
also z. B. 12 , 203 , 327 Î A und 13 , 14 , 227 Ï A. Allgemein liegt
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
p
eine positive rationale Zahl in gekürzter Darstellung q
natürlich genau dann in A, wenn q = 2 a5 ß mit ganzen
Exponenten a, b ³ 0 gilt.
Wie schauen die Mengen D Ç A und D Ç A aus? Zunächst einmal kann man sofort feststellen, dass H 1 = 1
49
und H 2 = 32 und H 6 = 20 sowie P1 = 12 in A liegen. Dies
sind auch die einzigen Beispiele abbrechender Dezimalzahlen bei den Folgen H n bzw. Pn :
Satz 4. Für alle n > 1 gilt Pn Ï A.
Satz 5. Für n Î N gilt H n Î A genau dann, wenn
n Î{1, 2, 6} gilt.
Insbesondere sind die Mengen D Ç A und D Ç A
19
beide nicht leer, da einerseits H 6 - H 2 = 20 und
29
1 1
H 6 - H 1 = 20 in D Ç A liegen, andererseits 2 , 5 ÎD gilt.
Trivialerweise ist D Ç A sogar eine unendliche Menge,
da natürlich auch 12 , 41 , 15 , 81 , 101 , 161 , 201 , 251 , 321 , 401 , 501 usw.
in D Ç A liegen.
Zum Beweis der beiden Sätze formulieren wir folgende Verallgemeinerung von Satz 3.
Satz 6. Ist p ¹ 5 eine ungerade Primzahl und sind
m 0 , m 1, m 2, ¼, m n ganze Zahlen ¹ 0 dergestalt, dass m 0
durch p teilbar ist, aber die Zahlen m 1, m 2, ¼, m n alle
nicht durch p teilbar sind, so ist die Dezimalbruchdarstellung der rationalen Zahl
S = m 0-1 + m 1-1 + m 2-1 +¼+ m n-1 niemals eine abbrechende.
Der Beweis läuft analog wie bei Satz 3:
N
Aus S = a b mit N , a, b Î Z und a, b ³ 0 folgt
2 5
1
M
=
m 0 2 a5 b × m 1 × m 2 ×¼× m n
für passendes M Î Z, was die unmögliche Gleichung
m 0 × M = 2 a5 b × m 1 × m 2 ×¼× m n impliziert. Außerdem
kann Satz 6 auch als direkte Folgerung von Satz 3 angesehen werden. (Man ersetze m 1, ¼, m n in Satz 3 durch
r 1, ¼, r N + n mit ri = -2 a5 b (1 £ i £ N ) und verwende
nur, dass S in Satz 3 ungleich 0 sein muss!)
Als unmittelbare Folgerung von Satz 6 bekommt man
nicht nur Satz 4, sondern den viel allgemeineren
(
)
Satz 7. Sind q 1, q 2, ¼, q n (n ³ 2 ) paarweise verschiedene ungerade Primzahlen und sind k 1, k 2, ¼, k n beliebige positive ganze Zahlen, dann hat die Zahl
q 1- k 1 + q 2- k 2 +¼+ q n- k n keine abbrechende Dezimalbruchentwicklung.
Korollar 3. Es gilt D Ç A =
{ , }.
1
2
1
5
Der folgenden Satz impliziert sofort Satz 5 sowie
auch das anschließende Korollar.
Satz 8. Für jede ganze Zahl m > 1 hat die rationale
k
1
Zahl
sicher keine abbrechende Dezimalbruchentn
n =m
wicklung, wenn die Summe mindestens zwei Summanden hat und (m, k ) ¹ (2, 6 ) und (m, k ) ¹ (3, 6 ) vorausgesetzt wird.
å
Korollar 4. Es gilt
ì 19 29 ü
D Ç A = í , ý È 2 - r5 - s 0 £ r , s Î Z \ {}
1.
î 20 20 þ
Beweis von Satz 8. Im Falle k ³ m + 5 bekommt man
die Behauptung via Lemma 1 und Proposition 1 bzw. 2
mit Hilfe von Satz 6 genauso, wie wir den ersten Beweis
{
}
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
von Satz 1 mit Hilfe von Satz 3 geführt haben, vorausgesetzt, dass m ³ 5 gilt. Im Falle m £ 4 und k ³ 10 verfährt
man genauso, wobei man die Primzahl p Ï{2, 5} zur
Anwendung von Satz 6 via Proposition 1 im Bereich
k
£ x £ k wählt. Im Falle m £ 4 und m + 5 £ k < 10 kann
2
man zur Anwendung von Satz 6 offensichtlich immer
p = 7 benützen.
Den Fall m < k £ m + 4 zerlegen wir in Teilfälle.
Den Fall k = m + 1 erledigt auch Satz 6, da eine der
beiden Zahlen m, m + 1 einen Primteiler p Ï{2, 5} haben muss, kann es doch gar nicht sein, dass die Zahlen
m und m + 1 beide von der Form 2 a5 b sind.
Der Fall k = m + 2 ist mit Satz 6 auch sofort erledigt,
da genau eine der drei Zahlen m, m + 1, m + 2 durch 3
teilbar sein muss.
Um die verbleibenden Fälle k = m + 3 bzw. k = m + 4
zu erledigen, wo die Summe genau vier bzw. fünf Summanden hat, betrachten wir die Menge
B := 2 a3 b 5 g 0 £ a, b, g Î Z =
{
}
= {1, 2, 3, 4, 5, 6, 8, 9, 10, 12, 15, 16, 18, 20, 24, 25, 27, 30, 32, 36, 40, 45, 48, 50,¼}
und stellen fest, dass offensichtlich
{m, m + 1, m + 2, m + 3} \B für beliebige ganze m ³ 4
nie leer ist. Somit ist für m ³ 4 sicher eine der vier Zahlen m, m + 1, m + 2, m + 3 durch eine Primzahl p ³ 7 teilbar, wobei dann automatisch die anderen drei Zahlen
nicht durch p teilbar sein können. A fortiori ist daher
für m ³ 3 auch sicher eine der fünf Zahlen
m, m + 1, m + 2, m + 3, m + 4 durch eine Primzahl p ³ 7
teilbar, wobei dann automatisch die anderen vier Zahlen nicht durch p teilbar sein können. In beiden Fällen
kann man somit Satz 6 direkt anwenden. Damit ist der
Beweis von Satz 1 abgeschlossen, denn die einzig
nichtberücksichtigen Fälle sind die ausgeschlossenen
Fälle (m, k ) = (2, 6 ) und (m, k ) = (3, 6 ), wo die Summen
“H 6 - 1 und H 6 - H 2 sofort erkennbar in A liegen.
Eine spezielle Folgerung von Satz 8 lautet: Für 1 £ m,
m +k
1
k Î Z ist die Summe å niemals eine Zahl der Form
n =mn
10 - r (0 < r Î Z ). Ist es möglich, dass diese Summe der
reziproke Wert irgendeiner ganzen Zahl sein kann?
Nun, diese interessante Frage können wir wenigstens
weitestgehend folgendermaßen beantworten.
m +k
1
Satz 9. Für 1 £ m, k Î Z ist die Summe å niemals
n =mn
eine Zahl der Form N1 mit N Î N, falls k £ 5 oder k ³ m8
vorausgesetzt wird. Ferner gibt es zu jedem k ³ 1 eine
Schranke M ³ 1 , sodass die Summe ¹ N1 für alle N Î N
und alle m ³ M ist.
Beweis. Der Fall k = 1 ist schnell erledigt: Mit
S 1 = m1 + m1+ 1 haben wir m2+ 1 < S 1 < m2 . Nun sei N = S11 .
Dann haben wir m2 < N < m2 + 12 und sehen, dass N keine
ganze Zahl sein kann.
Den Fall k = 2 erledigt man folgendermaßen: Es sei
S 2 = m1 + m1+ 1 + m1+ 2 = N1 . Da von den drei Zahlen
1
, 1 , 1 die mittlere näher bei der kleinsten als bei
m +2 m +1 m
der größten liegt, muss S 2 > m3+ 1 gelten. Trivialerweise
gilt S 2 < m3 . Somit haben wir m3 < N < m3 + 13 und daher
kann N keine ganze Zahl sein.
Auf analoge Weise kann man die Fälle k = 3, 4, 5 erledigen, da
4
< m1 + m1+ 1 + m1+ 2 + m1+ 3 < m4+ 1 für m ³ 2 und
m +2
31
5
m +2
6
m +3
<
<
1
m
1
m
+ m1+ 1 + m1+ 2 + m1+ 3 + m 1+ 4 < m 5+ 1 für m ³ 13 und
+ m1+ 1 + m1+ 2 + m1+ 3 + m 1+ 4 + m 1+ 5 < m6+ 2 für m ³ 4
gilt, wie man mit elektronischer Unterstützung leicht
verifizieren kann. Nach einer zügigen Überprüfung der
restlichen Fälle (m, k ) = (1, 3 ) und (m, k ) = (n, 4 )
(n £ 12 ) und (m, k ) = (n, 5 ) (n £ 3 ) durch Berechnung
der entsprechenden Summen erkennen wir somit, dass
Satz 9 für k £ 5 richtig ist.
Um gleich auch die letzte Aussage zu verifizieren,
k
1
setzen wir S k (x ) :=
für festes k Î N und varian =0 x + n
m +k
1
für alle ganbles x Î R , sodass dann also S k (m ) =
n
n =m
zen m ³ 1 gilt. Im Lichte der vorigen überlegungen sind
wir durch, wenn wir für festes k Î N die Abschätzung
k +1
< S k (x ) < xk ++ 1r für irgendein r Î Z Ç 0, k und
x +r +1
hinreichend große x Î R bestätigen können. Dazu betrachten wir für r = 0, 1, 2, ¼, k die reellen Funktionen
g r (x ) = xk ++ 1r und stellen fest, dass offensichtlich einer-
å
å
[ [
seits lim
S k (x )
x ®¥ g r ( x )
= 1 für alle r gilt, andererseits für x ³ 1
stets g 0 (x ) > g 1(x ) > g 2(x ) >¼> g k (x ) gilt. Ferner
müssen die Funktionen x a hr (x ) :=
S k (x )
g r (x )
als rationale
Funktionen für alle r schließlich monoton sein. Es gibt
somit sicher eine Schranke M, sodass alle Funktionen
hr (x ) auf dem Intervall M £ x < ¥ streng monoton sind
und mit x ® ¥ gegen 1 streben. Das kann aber nur so
geschehen, dass hr (x ) für jedes r auf dem Intervall
M £ x < ¥ entweder dauernd größer oder dauernd
kleiner als 1 ist. Da natürlich stets
h0 (x ) < h1(x ) < h2(x ) <¼< hk (x ) und offensichtlich
h0 (x ) < 1 < hk (x ) gilt, muss es zwangsläufig genau ein
r Î Z Ç 0, k geben, sodass hr (x ) < 1 < hr + 1(x ) und somit wunschgemäß g r + 1(x ) < S k (x ) < g r (x ) für alle
M £ x < ¥ gilt.
Um schließlich die Unmöglichkeit von S k (m ) = N1 für
beliebiges m und k ³ m8 zu bestätigen, beachte man,
dass S k (m ) = N1 automatisch N < m impliziert. Im Lichte
von Lemma 1 und Satz 3 genügt es, eine Primzahl im Intervall m £ x £ m + k vorzufinden. Im Falle k ³ m garantiert das Prop. 1, man wählt p im Bereich
1
m + k ) < x £ m + k . Im Jahre 1932 hat R. Breusch
2(
Prop. 1 verschärft: Für n > 32 liegt sogar im Intervall
9
n < x < 8 n stets eine Primzahl. Im Falle k ³ m8 können
wir daher mit einer garantiert vorhandenen Primzahl im
Bereich 89 (m + k ) £ x £ m + k Satz 3 anwenden, sofern
m + k > 36 ist. Der letztlich noch nicht behandelte Fall
5 £ k < m, m + k £ 36 ist leicht erledigt, da im Bereich
m £ x £ m + 5 für 5 < m £ 31 immer eine Primzahl liegt.
Bezieht man die Frage, die Satz 9 weitestgehend beantwortet, lediglich auf die harmonische Primzahlenreihe, dann ist eine vollständige Beantwortung derselben
im Lichte von Satz 3 trivial:
Jede Summe der reziproken Werte von mindestens
zwei paarweise verschiedenen Primzahlen ist ¹ N1 für
alle N Î N.
Ferner ist es via Satz 3 auch ganz leicht nachzuweisen, dass nicht nur die definitorische
Darstellung der Zahlen in der Menge D eindeutig ist,
sondern sogar folgender Satz gilt:
[ [
Satz 10. Sind L und R zwei endliche Mengen, die nur
32
Primzahlen enthalten, dann gilt
å p =å p
1
p ÎL
1
nur
p ÎR
dann, wenn L und R identisch sind.
Die Frage ist naheliegend, ob die definitorische Darstellung der Zahlen in der Menge D ebenfalls eindeutig
ist: Ist es ausgeschlossen, dass für verschiedene Mengen L = a , b Ç N und R = c, d Ç N die beiden Ab1
1
schnittssummen
und
identisch sein können?
n ÎL n
n ÎR n
Diese Frage ist auch eine natürliche Verallgemeinerung der Satz 9 zugrundeliegenden Frage, geht es dort
doch um den Spezialfall, dass eine der beiden Mengen
ein-elementig ist. Die neue Frage wird bereits weitgehend durch den folgenden Satz beantwortet, der sich
sofort aus Lemma 1 und Satz 3 ergibt.
[ ]
[ ]
å
å
[ ]
[ ]
Satz 11. Es seien L = a , b Ç N und R = c, d Ç N
nichtleere Mengen mit a , b , c, d Î N und b < c. Falls die
1
1
.
Menge R eine Primzahl enthält, so gilt
¹
n ÎL n
n ÎR n
Bemerkung. Die Voraussetzung b < c vermeidet lästige überlappungen der Summationsbereiche L und R
und ist somit keine Einschränkung der Allgemeinheit.
(Die Fälle R Ì L oder L Ì R sind trivial und uninteressant, ansonsten genügt es natürlich, statt links über L
und rechts über R, links über L \ R und rechts über R \ L
zu summieren.) Ferner sind die beiden Summen auch
ohne die Primzahlenvoraussetzung stets verschieden,
wenn b - a ³ d - c vorausgesetzt wird, da wegen b < c
immer alle Posten rechts kleiner als alle Posten links
sind. Ansonsten sind die beiden Summen wegen des
Primzahlenarguments sicher dann verschieden, wenn
c £ 12 d (Lemma 1) oder
32 < c £ 89 d (Verschärfung von Breusch) oder
å
117 < c £
13
14
å
d oder
2010761 < c £ 5000
d vorausgesetzt wird.
5003
Die letzten beiden Voraussetzungen beruhen auf einem Resultat von Rohrbach und Weis aus dem Jahre
1964, nach dem für ganzes n ³ 118 im Intervall
n < x £ 14
n stets eine Primzahl liegt, und auf einem
13
Resultat von Harborth und Kemnitz aus dem Jahre
1981, nach dem für ganzes n ³ 2010762 im Intervall
n < x £ 1.00006n stets eine Primzahl liegt.
Eine wichtige Konsequenz aus Satz 11 ist, dass alle
Zahlen H n - 1 in der Menge D als Abschnittssummen
der harmonischen Reihe eindeutig darstellbar sind.
Satz 12. Für jedes ganze b ³ 2 ist die Zahl
H b - 1 = 12 + 13 + 41 +¼+ b1 verschieden von allen Summ +k
1
mit m ³ 3.
men
n =mn
Beweis. Den Fall b = 2 haben wir mit Korollar 4 bereits erledigt, sodass wir gleich b ³ 3 voraussetzen könm +k
1
nen. Angenommen, es gilt H b - 1 =
mit m ³ 3. Da
n
n =m
man im Falle m £ b die überlappenden Summationsbereiche stets entfernen kann, dürfen wir gleich auch
annehmen.
Insbesondere
haben
wir
m >b
H b - 1 ³ H 3 - 1 = 65 und m ³ 4, sodass wegen
1
+ 15 + 61 + 71 < 65 automatisch k ³ 4 gelten muss, hat
4
r +k
1 s +k 1
für r > s . Ferner ist im Lichman doch stets
<
n =r n
n =s n
å
å
å
å
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
te von Satz 11 und Proposition 1 einerseits k ³ m ausgeschlossen, andererseits darf im Intervall m £ x £ m + k
keine Primzahl liegen. Wegen k ³ 4 erzwingt dies bereits m ³ 24. Wegen 241 + 251 +¼+ 521 + 531 < 65 muss wiederum k ³ 30 gelten. Da nun aber die Intervalle
m £ x £ m + 30 für m £ 1000 immer Primzahlen enthalten, wie man einer kleinen Primzahlentabelle entnehmen kann, gilt zwangsläufig m ³ 1000. Ein einfacher
Flächeninhaltsvergleich liefert für m ³ 1000 und k ³ 1
die Abschätzung
m +k
m +k
m +k
1
1
1
1
1
dx
m +k ö
= +
< +
£
+ ln æç
÷
è
1000
m n =m +1 n m
x
m ø
n =mn
m
.
(m +k )
1
und somit
Daher haben wir ln m
> 65 - 1000
å
å
ò
(
(m +k )
)
> 2, also k > m. Letzteres hatten wir aber bereits
m
ausgeschlossen, q. e. d.
Bemerkung. Mit der sehr scharfen Abschätzung
N
1
1
1
1
<
- log æç N + ö÷ - g <
(N ³ 2 )
2
è
2ø
24 N 2
24(N + 1)
n =1 n
å
von
de
Temple
aus
dem
Jahre
1993,
wobei
g = 0.5772156649¼ die Eulersche Konstante ist, kann
man viele Varianten von Satz 12 beweisen, indem man
diese Abschätzung anstelle unserer groben Integralabschätzung geschickt einsetzt. So folgt aus der Abschätzung von de Temple, dass für 2 £ a < b < c < d nur
b
d
1
1
dann
gelten kann, wenn
=
n =a n
n =c n
0 < ln(b + 12 ) - ln(a - 12 ) - ln(d + 12 ) - ln(c - 12 ) <
(
å
å
) (
)
< (a - 1)
gilt. Hat man nun etwa
-2
ln(b + 12 ) - ln(a - 12 ) ³ 121 (a - 1) + ln 2 vorausgesetzt,
um z. B. die Eindeutigkeit der Abschnittssummendarstellung aller Zahlen H b - H 2(b ³ 5 ) zu verifizieren, so
b
d
1
1
bereits zwingend, denn die hypotheist
¹
n
n
n =a
n =c
tisch angenommene Gleichheit der Summen impliziertüber die Ungleichung sofort
(d + 12 ) > 2, also
ln(d + 12 ) - ln(c - 12 ) > ln 2 und somit
(c - 12 )
d ³ 2c - 1, sodass man (Ironie der Geschichte!) mit Proposition 1 und Satz 11 die Gleichheit der Summen sofort
wieder ausschließen kann.
Dem aufmerksamen Leser dürfte nicht entgangen
sein, dass wir einen wesentlichen Schritt im Beweis von
Satz 8 nicht ordentlich erledigt haben, was wir nun
nachholen wollen.
1
12
å
-2
å
{
}
Lemma 3. Es sei B := 2 a3 b 5 g 0 £ a, b, g Î Z .
Dann gilt für ganzes m ³ 4 stets
{m, m + 1, m + 2, m + 3} \B ¹ Æ.
Beweis. Falls m ÏB gilt, ist nichts zu zeigen. Falls
m = 2 a3 b 5 g mit 0 < a, b, g Î Z gilt, ist die Behauptung
richtig, da dann m + 1 sicher nicht durch 2 oder 3 oder 5
teilbar ist und somit m + 1 sicher nicht in B liegt. Es genügt daher folgende sechs Fälle durchzuspielen, wobei
r , s stets beliebige positive ganze Exponenten seien.
(1) m = 2 r3 s ; (2) m = 3 r5 s ; (3) m = 2 r5 s ; (4) m = 2 r ;
(5) m = 3 r ; (6) m = 5 r .
Fall (2) und (3) sind sofort erledigt. Falls (2) gilt, kann
m + 2 weder durch 3 noch durch 5 teilbar sein und überdies ist m + 2 ungerade. Somit liegt m + 2 nicht in B. Falls
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
m + 1, m + 2 ÎB und (3) gilt, muss m + 1 = 3 t gelten, da
m + 1 weder gerade noch durch 5 teilbar ist. Ferner ist
m + 2 weder durch 3 noch durch 5 teilbar und somit
muss m + 2 = 2 t gelten. Zwangsläufig ist dann m + 3 ungerade und nicht durch 3 oder 5 teilbar, sodass m + 3
nicht in B liegt.
Nun sei (1) vorausgesetzt und gleich indirekt
{m, m + 1, m + 2, m + 3} Ì B angenommen. Dann muss
jeweils aus Teilbarkeitsgründen m + 1 = 5 t und somit
m + 2 = 2u und somit m + 3 = 3v gelten. Dabei gilt natürlich u > r und v > s . Folglich haben wir
2 = 2u - 2 r3 s = 2 r 2u - r - 3 s und somit r = 1 sowie
(
= 3 (3
v -s
)
- 2 ) und somit s = 1. Dann ha-
3 = 3 -2 3
ben wir aber m = 6 im Widerspruch zu m + 1 ÎB .
Angenommen, es gilt (4) und {m, m + 1, m + 2} Ì B .
Dann haben wir m + 1 = 3 s 5 t mit s + t > 0. Den Fall
s , t > 0 können wir gleich abhaken, da dann m + 2 = 2u
gilt und somit die Bedingung (4) mit der Bedingung
m ³ 4 unverträglich ist. Im Falle m + 1 = 3 s muss
m + 2 = 2u 5v (mit u, v > 0) gelten, was sofort m + 3 ÏB
nach sich zieht. Im Falle m + 1 = 5 t muss m + 2 = 2u 3v
(mit u, v > 0) gelten, was sofort m + 3 ÏB nach sich
zieht.
Angenommen, es gilt (5) und
{m, m + 1, m + 2, m + 3} Ì B . Dann haben wir
m + 1 = 2 s 5 t mit s + t > 0. Den Fall s , t > 0 können wir
wieder gleich abhaken, da dann m + 2 im Widerspruch
zu m + 2 ÎB nicht durch 2 oder 3 oder 5 teilbar ist. Auch
kann man den Fall s = 0 vergessen, da m + 1 gerade ist.
Im verbleibenden Falle m + 1 = 2 s muss m + 2 = 5u gelten, sodass zwangsläufig m + 3 = 2v 3w mit v , w > 0 gilt.
Natürlich muss dabei nun aber s ³ v und r ³ w gelten.
Dann haben wir 2 = 2v 3w - 2 s = 2v 3w - 2 s -v und somit
v
r s
s
r
(
(
r -w
)
)
und somitw = 1
v = 1sowie 3 = 2 3 - 3 = 3 2 - 3
gelten. Dann haben wir aber m + 3 = 6 und somit nicht
m ³ 4.
Angenommen, es gilt (6) und
{m, m + 1, m + 2, m + 3} Ì B . Dann haben wir
m + 1 = 2 s 3 t mit t ³ 0 und (da m ungerade ist) s > 0. Da
m + 2 nicht durch 2 oder 5 teilbar ist, muss m + 2 = 3u
gelten, was sofort t = 0 erzwingt. Es gibt für m + 3 daher
keine andere Möglichkeit als m + 3 = 2v . Wegen
m + 1 = 2 s bekommen wir somit s = 1 und v = 2, also
m + 1 = 2 und somit nicht m ³ 4.
Damit ist Lemma 2 vollständig und insbesondere
Satz 8 lückenlos bewiesen.
v w
r
w
v
Adresse des Verfassers:
Ao. Univ.-Prof. Mag. Dr. Gerald Kuba, Institut für Mathematik,
DIBB, Universität für Bodenkultur, 1180 Wien
33
Das perfekte Wahlsystem
Axel Born und Gerhard J. Woeginger
Unser Kegelverein wird in diesem Jahr einen neuen
Präsidenten wählen, und dazu stehen drei hervorragende Kandidaten zur Verfügung. Der Vereinssekretär
möchte die Wahl mit Hilfe eines Computerprogrammes
abwickeln, das von einer amerikanischen Firma mit Sitz
in Florida angepriesen wird. Der Sekretär erklärte uns
dazu begeistert: „Die Software scheint punktgenau auf
unsere Situation zugeschnitten zu sein, und zwar auf
drei Kandidaten und neunundneunzig Wähler. Jeder
Wähler erhält von uns eine ID-Nummer und gibt damit
seinen Kandidaten in den Computer ein. Das Programm bestimmt daraus den Gewinner. Keine langwierigen Wahlgänge, keine Stichwahlen, keinerlei Zeitverschwendung! Und das alles zu einem Preis, den man
zwar nicht billig, aber auch nicht wirklich überteuert
nennen könnte!“ Professor Ambrosius war nicht davon
beeindruckt: „Für so etwas braucht man doch keinen
Computer! Dazu genügt auch ein ganz normaler Spielwürfel. Es wird einmal gewürfelt. Der erste Kandidat
gewinnt bei 1 und 2, der zweite gewinnt bei 3 und 4,
und der dritte gewinnt bei 5 und 6. Und im Gegensatz
zur Software aus Florida würde uns der Würfel nicht
viel Geld kosten!“ Aber der Sekretär liess das nicht gelten: „Ja, ja, wenn echte Demokratie doch nur so einfach
wäre! Das Computerprogramm kann natürlich viel
mehr als so ein primitiver Würfel. Die Vorteile werden
auf den Webseiten der Firma genau erklärt.“ Und tatsächlich, auf den Webseiten wurden die beiden wichtigsten Eigenschaften des Programmes aus Florida ausführlich beschrieben:
F1: Falls alle 99 Wähler einstimmig für denselben
Kandidaten stimmen, dann wird dieser Kandidat auch vom Computerprogramm zum Sieger
der Wahl erklärt.
F2: Angenommen, jeder einzelne der 99 Wähler
würde seine Meinung ändern und zu einem
anderen Kandidaten wechseln. Dann würde
nach dem Wechsel auch das Computerprogramm einen anderen Kandidaten zum Sieger
erklären.
Die Florida-Eigenschaft F1 klingt sehr vernünftig:
Wenn unter den Wählern vollkommene Übereinstimmung herrscht, dann soll das Wahlsystem nicht anders
entscheiden. Die Florida-Eigenschaft F2 ist im Falle von
zwei Kandidaten verständlich: Wenn jeder Wähler zum
anderen Kandidaten wechselt, dann soll auch das
Wahlsystem diesen Wechsel mitmachen. Professor Ambrosius kritisierte zunächst, dass die Eigenschaft F2 im
Falle von drei Kandidaten für ihn nur schwer zu akzeptieren sei.
Der Professor verfiel dann für eine halbe Stunde in
tiefes Nachdenken und begann schließlich zu schmunzeln: „Das klingt ja alles schön und gut! Aber wenn sich
das Computerprogramm wirklich so verhält, dann können wir mit 99 Zetteln und einer alten Keksdose das
gleiche Ergebnis erzielen. Wir schreiben die ID-Nummern der 99 Wähler auf die 99 Zettel, geben die Zettel in
die Keksdose, und ziehen zufällig eine Nummer. Wer
34
gezogen wird, der darf aus den drei Kandidaten den
Sieger auswählen.“
Und wirklich: Dieses Keksdosen-Wahlsystem erfüllt
die beiden Florida-Eigenschaften F1 und F2. Falls alle
99 Wähler einstimmig für denselben Kandidaten X stimmen, dann bestimmt auch der aus der Keksdose gezogene Wähler den Kandidaten X zum Wahlsieger. Und
falls alle 99 Wähler ihre Meinung ändern und zu einem
anderen Kandidaten übergehen, dann ändert damit
auch der aus der Keksdose gezogene Wähler seine Meinung und erklärt einen anderen Kandidaten zum Wahlsieger.
Es kommt aber noch viel schlimmer: Professor Ambrosius konnte auch beweisen, dass sein KeksdosenWahlsystem das einzig mögliche Wahlsystem ist, das
diese beiden Florida-Eigenschaften F1 und F2 des Computerprogrammes erfüllt. Sein Beweis wird in diesem
Artikel präsentiert. Unser Kegelverein hat sich daraufhin entschlossen, das Computerprogramm von der Firma in Florida doch nicht zu kaufen.
Mathematische Modellierung
Wir betrachten allgemeine Wahlsituationen, in denen sich n ³ 1 Wähler auf einen Kandidaten aus der
Kandidatenmenge K = {1, 2, 3} einigen müssen. Den
Lieblingskandidaten des k-ten Wählers (1 £ k £ n) bezeichnen wir mit x k , und alle n Lieblingskandidaten
fassen wir in einem n-dimensionalen Vektor
x = (x 1, ¼, x n ) ÎK n zusammen. Ein Wahlsystem übersetzt jeden derartigen Lieblingskandidatenvektor x in
einen eindeutigen Wahlsieger f (x ). Ein Wahlsystem
entspricht also einer Funktion f : K n ® K .
Wir nennen zwei Vektoren x = (x 1, ¼, x n ) und
y = ( y 1, ¼, y n ) total verschieden, falls x k ¹ y k für alle
Komponenten k = 1, ¼, n gilt. Die beiden Eigenschaften F1 und F2 des Computerprogrammes aus Florida
können wir in dieser Notation auch wie folgt formulieren:
F1: Für jeden Vektor x mit x 1 = x 2 =¼= x n soll
f (x ) = x 1 gelten.
F2: Für zwei total verschiedene Vektoren
x , y ÎK n soll immer f (x ) ¹ f ( y ) gelten.
Der von Professor Ambrosius fomulierte Satz lautet:
In einem Wahlsystem mit Eigenschaft F2 hängt der
Wahlausgang ausschließlich von einem einzigen wichtigen Wähler ab, und die Meinungen der anderen n - 1
Wähler sind für das Wahlergebnis völlig irrelevant.
Oder noch einmal anders gesagt:
Satz von Ambrosius. Für jede Funktion f : K n ® K
mit der Florida-Eigenschaft F2 gibt es eine entsprechende Komponente w mit 1 £ w £ n, sodass alle Funktionswerte f (x 1, ¼, x n ) bereits durch den Wert von x w festgelegt werden.
Aufgepasst! Der Satz von Ambrosius nimmt nur auf
die zweite Florida-Eigenschaft F2 Bezug, und sagt noch
nichts über die Art und Weise aus, wie sich der Wert
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
von x w auf die Funktionswerte f (x 1, ¼, x n ) auswirkt.
Zum Beispiel könnte sich ein derartiges Wahlsystem
wie folgt verhalten: Wenn der wichtige w-te Wähler für
den Kandidaten 1 stimmt, dann siegt Kandidat 2. Wenn
er für 2 stimmt, so siegt 3. Und wenn er für 3 stimmt, so
siegt Kandidat 1. Ein anderes Beispiel wäre, dass das
Wahlsystem immer den Kandidaten 2 zum Wahlsieger
erklärt. Erst in Kombination mit der ersten Florida-Eigenschaft F1 impliziert der Satz von Ambrosius, dass
das Computerprogramm die Meinung des w-ten Wählers implementieren muss.
Beweis des Satzes von Ambrosius. Für n = 1ist der
Satz trivial: Wenn es nur einen einzigen Wähler gibt,
dann hängt der Wahlausgang natürlich nur von diesem
einzigen Wähler ab. Für n ³ 2 werden wir zwei Hauptfälle unterscheiden. Im ersten Hauptfall stellt sich heraus, dass der n-te Wähler alleine für den Wahlausgang
verantwortlich ist. Im zweiten Hauptfall ist der n-te
Wähler bedeutungslos und für den Wahlausgang irrelevant. Wir können ihn ignorieren, die n-te Komponente
streichen, und unsere Analyse für die verbleibenden
n - 1 Komponenten wiederholen. Nach wiederholtem
Streichen der irrelevanten letzten Komponente landen
wir entweder im ersten Hauptfall oder im Fall n = 1, und
dann ist der Beweis vollendet.
Wir betrachten also für n ³ 2 eine beliebige Funktion
f : K n ® K mit der Florida-Eigenschaft F2. Um die Notation kurz zu halten, werden wir im folgenden des öfteren aus einem (n - 1)-dimensionale Vektoren x und
einem Kandidaten k durch Nebeneinanderschreiben einen n-dimensionalen Vektor machen; zum Beispiel bezeichnet f (x , k ) den Funktionswert, der dem entsprechenden n-dimensionalen Vektor zugewiesen wird.
Im ersten Hauptfall gibt es einen (n - 1)-dimensionalen Vektor x ÎK n - 1, für den die drei Werte f (x , 1),
f (x , 2 ), f (x , 3 ) paarweise verschieden sind. Wir nehmen dann einen beliebigen (n - 1)-dimensionalen Vektor y her, und suchen uns dazu einen (n - 1)-dimensionalen Vektor z, der sowohl von x als auch von y total
verschieden ist. (So ein Vektor z existiert in der Tat: Für
jede Komponente von z gibt es drei mögliche Werte,
von denen x und y höchstens zwei blockieren können.)
Eigenschaft F2 impliziert dann
f (z , 1) ¹ f (x , 2 ) und f (z , 1) ¹ f (x , 3 ).
Dann bleibt aber für f (z , 1) nur noch f (x , 1) als möglicher Wert übrig. Analog erhalten wir f (z , 2 ) = f (x , 2 )
und f (z , 3 ) = f (x , 3 ). Nun können wir dieses Spiel für
die Vektoren z und y wiederholen: Aus
f ( y , 1) ¹ f (z , 2 ) und f ( y , 1) ¹ f (z , 3 )
folgt f ( y , 1) = f (z , 1) = f (x , 1). Völlig analog dazu erund
halten
wir
auch
f ( y , 2 ) = f (x , 2 )
f ( y , 3 ) = f (x , 3 ). Da der (n - 1)-dimensionale Vektor y
beliebig gewählt war, erfüllt jeder derartige Vektor
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
f ( y , k ) = f (x , k ) für alle k ÎK . Daher hängt der Wert
von f nicht von den ersten n - 1 Komponenten ab. Der
erste Hauptfall ist mit w := n erledigt.
Der zweite Hauptfall behandelt die verbleibenden Situationen, in denen es für jeden (n - 1)-dimensionalen
Vektor x ÎK n - 1 zwei verschiedene Kandidaten
a ¹ b ÎK mit f (x , a ) = f (x , b ) gibt. Wir fixieren einen
Vektor x, und bezeichnen den verbleibenden dritten
Kandidaten mit c, wobei c ¹ a und c ¹ b gilt. Wir suchen uns zwei (n - 1)-dimensionale Vektoren y und z,
sodass x , y , z paarweise total verschieden sind. (Da es
drei verschiedene Kandidaten gibt, können derartige
Vektoren y und z leicht konstruiert werden.) Nun gilt:
• Da die drei Vektoren (x , a ), ( y , b ), (z , c ) paarweise
total verschieden sind, sind die drei Funktionswerte
f (x , a ), f ( y , b ), f (z , c ) paarweise verschieden.
• Da die drei Vektoren (x , b ), ( y , a ), (z , c ) paarweise
total verschieden sind, sind die drei Funktionswerte
f (x , b ), f ( y , a ), f (z , c ) paarweise verschieden.
folgt
nun
Aus
f (x , a ) = f (x , b ) = a
f ( y , a ) = f ( y , b ) = b. Ein symmetrisches Argument
liefert uns f (z , a ) = f (z , b ) = g . Die drei Werte a, b, g
müssen paarweise verschieden sein. Da (x , c ) und
( y , a ) total verschieden sind, gilt f (x , c ) ¹ b. Da (x , c )
und (z , a ) total verschieden sind, gilt f (x , c ) ¹ g . Dann
bleibt nur noch f (x , c ) = a als einzige Möglichkeit
übrig.
Da {a , b , c} = {1, 2, 3}, haben wir nun für jeden beliebigen (n - 1)-dimensionalen Vektor x ÎK n - 1 gezeigt,
dass f (x , 1) = f (x , 2 ) = f (x , 3 ) gilt. Daher hängt der
Wert der Funktion f nicht von der letzten Komponente
ab. Der zweite Hauptfall ist damit abgehandelt, und der
Satz von Ambrosius ist bewiesen.
Schlussbemerkungen
Der Satz von Professor Ambrosius lässt sich leicht auf
Situationen mit mehr als drei Kandidaten erweitern:
Falls das Wahlsystem die Florida-Eigenschaft F2 besitzt,
dann wird das Wahlergebnis immer durch einen einzigen Wähler bestimmt. Der obige Beweis funktioniert
mit kleinen Änderungen auch für die erweiterte Situation.
Der Satz von Ambrosius wurde bereits im Jahre 1974
von Don Greenwell und László Lovász in der Arbeit
„Applications of product colouring“ (Acta Mathematica
Academiae Scientiarum Hungaricae 25, pp 335—340)
bewiesen. Greenwell und Lovász leiten allgemeinere
Resultate aus dem Bereiche der Graphfärbungen her.
Anschriften der Verfasser:
Axel Born: ORG Ursulinen, Leonhardstraße 62, 8010 Graz.
Gerhard J. Woeginger: TU Eindhoven, P.O. Box 513,
5600 MB Eindhoven, Niederlande.
35
Geometrische Optimierung
mit Nebenbedingungen
Helmut Brunner
In diesem Beitrag soll an Beispielen in drei Variablen
gezeigt werden, wie analytische Geometrie (Koordinatengeometrie) den Themenkreis der Optimierung (lineare Optimierung, Differentialrechnung) vorbereiten
kann. Als bekannt vorausgesetzt wird die graphische
Optimierung in zwei Variablen (z. B.: bei der linearen
Optimierung sind die Eckpunkte des zulässigen Bereichs Kandidaten für Extrema). Sie ist ebenfalls eine
Anwendung der Koordinatengeometrie (Beschreibung
von Bereichen mit Ungleichungen).
1. Lineare Optimierung
mit zwei Nebenbedingungen
Aufgabe: Eine Firma stellt drei Produkte X, Y, Z her.
Die Produktion erfolgt in zwei Stufen, die Herstellung
eines Vorprodukts in Maschinenhalle A und die Endverarbeitung in Maschinenhalle B. Die Bearbeitungsdauer je Mengeneinheit beträgt in Halle A je 1, 2 bzw. 3
Zeiteinheiten für die Vorprodukte von X, Y, Z, und in
Halle B 3, 1 bzw. 2 Zeiteinheiten. Jede Halle habe die
Kapazität von 120 Zeiteinheiten. Der Deckungsbeitrag
je Mengeneinheit betrage für die drei Produkte 4, 6 und
9 Geldeinheiten. Bei welchen Produktionsmengen x, y,
z wird der gesamte Deckungsbeitrag unter Berücksichtigung der Kapazitätsschranken maximal?
Es handelt sich hier um folgende Extremwertaufgabe:
Zielfunktion: f (x , y , z ) = 4 × x + 6 × y + 9 × z ® Max
Nebenbedingungen: x + 2 × y + 3 × z £ 120,
x + y + 2 × z £ 120
Einschränkung auf positive Lösungen: x , y , z ³ 0
Der klassische Zugang ist wie folgt: Der zulässige Bereich möglicher Lösungen wird von den drei Koordinatenebenen begrenzt und nach oben von den beiden
Nebenbedingungen, also den Grenzebenen:
#1: x + 2 × y + 3 × z = 120, #2: 3 × x + y + 2 × z = 120,
#3: x = 0, #4: y = 0, #5: z = 0.
Da die Zielfunktion linear ist, wird der Extremwert
bei einem der sechs Eckpunkte des zulässigen Bereichs
angenommen, also einem Schnittpunkt von jeweils drei
dieser Ebenen. Dies führt zu 10 linearen Gleichungssystemen aus je drei Gleichungen für die möglichen
Schnittpunkte, die aber nicht alle im zulässigen Bereich
liegen. Tabelle 1 listet alle Lösungen auf – samt Prüfung,
welche zulässig ist. Bei Punkt Nr. 3 nimmt f das Maximum an: Es werden 24 Mengeneinheiten X, 48 Mengeneinheiten Y und kein Z produziert.
Statt alle Eckpunkte zu berechnen, ist es einfacher,
zu überlegen, welche Grenzen bindend sind. Bei der
Aufgabe ist anzunehmen, dass beide Kapazitätsgrenzen
die Produktion einschränken. Der Extremwert liegt
demnach auf der Schnittgeraden aus den Ebenen #1
und #2. Sie ist zu ermitteln und für die zulässigen
Punkte auf dieser Gerade genügt es dann, das eindi-
36
Tabelle 1: Eckpunkte des zulässigen Bereichs
Nr.
1
2
3
4
5
6
7
8
9
10
Ebenen
1, 2, 3
1, 2, 4
1, 2, 5
1, 3, 4
1, 3, 5
1, 4, 5
2, 3, 4
2, 3, 5
2, 4, 5
3, 4, 5
x
0
120/7
24
0
0
120
0
0
40
0
y
–120
0
48
0
60
0
0
120
0
0
z
120
240/7
0
40
0
0
60
0
0
0
zulässig?
f
nein
–
ja
377+1/7
ja
384
ja
360
ja
360
nein
–
nein
–
nein
–
ja
160
ja
0
mensionale Problem f ® Max zu lösen: Die Schnittgerade von #1 und #2 hat die Parameterdarstellung
x = 24 - z2 , y = 48 - 7 × z5 und z beliebig; eingesetzt in f
ergibt dies f = 384 - z5 . Der Parameter z wird noch
. Somit wird das
durch x , y , z ³ 0 begrenzt: 0 £ z £ 240
7
Maximum f = 384 für z = 0 angenommen.
Bemerkungen
1. Wenn die vorhandenen Produktionskapazitäten
aus wirtschaftlichen Gründen ausgelastet werden sollen (Erhaltung der Arbeitsplätze, Rechtfertigung der Firmenleitung für die Höhe vergangener Investitionen),
dann kann die Aufgabe bereits mit Gleichungen als Nebenbedingungen formuliert werden.
2. Ohne solche Zusatzannahmen darf diese Vereinfachung nicht ohne Prüfung angenommen werden,
wie f = x + y + z ® Max unter x + 2 × y + 2 × z £ 6,
2 × x + 2 × y + 3 × z £ 3 und x , y , z ³ 0 zeigt: Die erste Bedingung kann wegen der zweiten nicht bindend sein
(sie wird dominiert), ihre Schnittgerade ist nicht im zulässigen Bereich. Das Maximum f = 32 wird angenommen auf der Schnittgeraden 2 × x + 2 × y = 3, z = 0.
3. Schnittpunkt Nr. 2 wird für die Aufgabe optimal,
wenn der Deckungsbeitrag für Z auf 10 steigt
( f = 411 + 73 ). Hier tritt dann die Frage auf, ob die Lösungen ganze Zahlen sein müssen. Falls ja, wird die optimale Lösung bei x = 17, y = 2, z = 33 angenommen
( f = 411). Um sie zu ermitteln, sind numerische Methoden notwendig (Computeralgebra, Excel-Solver).
2. Lineare Optimierung
mit einer Nebenbedingung
Aufgabe: Die Firma von oben kommt nun mit den
Vorprodukten aus Halle A aus, wofür sie dieselben
Deckungsbeiträge erzielt. (Halle B wird verkauft.) Bei
welchen Produktionsmengen x , y , z wird der gesamte
Deckungsbeitrag unter Berücksichtigung der verbleibenden Kapazitätsschranke maximal?
Es handelt sich hier um die Extremwertaufgabe:
Zielfunktion: f (x , y , z ) = 4 × x + 6 × y + 9 × z ® Max
Nebenbedingungen: x + 2 × y + 3 × z £ 120
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Einschränkung auf positive Lösungen: x , y , z ³ 0
Der zulässige Bereich ist das Tetraeder mit den Eckpunkten 0 (Koordinatenursprung) und den drei Eckpunkten A, B, C, die man erhält, wenn man die Ebene
x + 2 × y + 3 × z £ 120 mit den Koordinatenebenen
schneidet. Da f = 0 bei 0, wird das Maximum bei einem
der drei Eckpunkte A, B, C angenommen: Wenn die
y
Gleichung umgeformt wird auf die Form xa + b + zc = 1,
dann sind diese Eckpunkte A(a, 0, 0 ), B(0, b , 0 ),
C (0, 0, c ). Im Beispiel ist a = 120, b = 60, c = 40 und
f = 480 wird maximal bei A(120, 0, 0 ).
3. Quadratische Optimierung
mit linearen Nebenbedingungen
Aufgabe: Die obige Firma mit den Produktionshallen
A, B hat für jedes der Produkte eine degressive Kostenstruktur mit linearen Stückkosten: Die variablen Kosten
pro Stunde für die Produktion einer Einheit des Produkts P Î{X, Y, Z} betragen bei der Produktion von p
Einheiten jeweils 2,2 - 0, 01 × p Geldeinheiten (wobei
wegen der Kapazitätsschranken nicht mehr als 60 Einheiten produziert werden). Bei welchen Produktionsmengen x , y , z sind die Kosten minimal, wenn beide
Hallen ausgelastet werden sollen?
Es handelt sich hier (wegen der Produktionszeiten
von 4, 3 bzw. 5 Stunden für X, Y bzw. Z) um folgende
Extremwertaufgabe
Zielfunktion: 4 × (2,2 × x - 0, 01 × x 2) +
2
2
+3 × (2,2 × y - 0, 01 × y ) + 5 × (2,2 × z - 0, 01 × z ) ® Min
Nebenbedingungen: x + 2 × y + 3 × z £ 120,
3 × x + y + 2 × z £ 120
Einschränkung auf positive Lösungen: x , y , z ³ 0
Bei quadratischen Zielfunktionen sind Extrema sowohl im Inneren, als auch am Rand des zulässigen Bereichs möglich. Die vorliegende Aufgabe ist allerdings
ein Sonderfall mit einer quadratischen Zielfunktion und
zwei linearen Gleichungen. Diese lässt sich analog zu
Aufgabe 1 oben ohne Differentialrechnung behandeln:
Die linearen Gleichungen werden gelöst und beschreiben eine Gerade in Parameterdarstellung, mit einer
oberen und unteren Grenze für den Parameter t (aus
x , y , z ³ 0 abgeleitet; je nach Lage der Gerade könnte
eine „Grenze“ für t unendlich sein). Diese Gleichung
wird in die Zielfunktion eingesetzt. Das Ergebnis ist
eine Parabelgleichung in t. Die Extremwerte einer Parabel sind aber bekannt: Sie werden entweder im Scheitelpunkt angenommen (ermittelt durch eine Ergänzung
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
auf ein Quadrat), oder an einem der Randpunkte. Wo
der Extremwert liegt, wird durch Einsetzen probiert.
(Die Funktion kann unendlich groß/klein werden,
wenn es nur eine endliche Grenze für t gibt.)
Im konkreten Beispiel werden die Nebenbedingungen genau für das Linien-Stück mit der Parameterdarstellung x = 24 - z2 , y = 48 - 7 × z5 und 0 £ z £ 240
erfüllt
7
(Aufgabe 1). Eingesetzt in die Zielfunktion f führt
dies zur Aufgabe, eine Parabel über einem Intervall zu
minimieren:
2
(272.400 + 2.760 × z - 69 × z )
f (z ) =
® Min
625
2
æ 69 ö
f (z ) = 480 - ç
÷ × (z - 20 ) ® Min.
è 625 ø
Die Parabel hat den Scheitelpunkt bei z = 20. Die
Kandidaten für Extremwerte sind die Randpunkte und
der Scheitelpunkt, wobei
æ 240 ö
f (0 ) = 435, 84, f (20 ) = 480 und f ç
÷ = 457, 47
è 7 ø
Die kostengünstigste Vollauslastung der Anlagen besteht somit bei z = 0, x = 24 und y = 48.
Bemerkungen
1. Bei diesem Beispiel führt der Produktionsplan mit
dem maximal erzielten Kostendeckungsbeitrag (Aufgabe 1) auch zu den minimalen Produktionskosten bei
Vollauslastung (Aufgabe 3). Insgesamt ergibt sich dabei
jedoch ein Verlust.
2. Folgender Produktionsplan maximiert den Gewinn (72 Geldeinheiten, noch ohne Fixkosten):
x = z = 0 und y = 60. Dabei wird möglichst viel vom
Produkt mit dem im Verhältnis zum Produktionsaufwand (3 Stunden) höchsten Kostendeckungsbeitrag
(6 Geldeinheiten) produziert, Halle A ausgelastet und
Halle B nur zu 50% genutzt.
3. Die Flächen mit konstantem Gewinn G (ohne
Rücksicht auf die Nebenbedingungen) sind bei diesem
Beispiel Ellipsoide der Form
4 × (x
2
2
- 60) + 3 × (y - 10) +
5 × (z
2
- 20) = 16.700 + 100 × G .
Man kann man die Aufgabe der Gewinnoptimierung
mit einem Computeralgebrasystem wie folgt geometrisch-interaktiv lösen: Das Ellipsoid und der zulässige
Bereich werden geplottet, wobei G mit einem Schieber
gesteuert wird. Man vergrößert nun G so lange, bis das
Ellipsoid den zulässigen Bereich nur mehr berührt.
Anschrift des Verfassers:
HR Dr. Helmut Brunner, Kaiser-Franz-Ring 22, 2500 Baden
37
Aufgaben
Walther Janous
Aufgabe Nr. 123.
a) Es sei n ³ 3 eine natürliche Zahl.
In einem Gefäß befinden sich n Stäbe verschiedener
Längen, nämlich je einer mit der Länge 1, 2, … bzw. n.
Aus diesem Gefäß werden in zufälliger Weise drei
Stäbe (ohne Zurücklegen) gezogen.
Wir bezeichnen mit p n die Wahrscheinlichkeit dafür,
dass sich aus den drei Stäben ein nichtdegeneriertes
Dreieck bilden lässt.
Man beweise, dass die Folge p n , n ³ 3 streng monoton steigt, und man berechne ihren Grenzwert.
(Gerhard KIRCHNER, Univ. Innsbruck)
b)* [„Open-end-Teil“] Man betrachte das analoge
Problem, wobei in zufälliger Weise k (k ³ 3 ) Stäbe aus
dem Gefäß gezogen werden, aus denen sich ein (nichtdegeneriertes) konvexes k-Eck bilden lässt.
(W. J.)
Aufgabe Nr. 124.
Die arithmetisch-geometrische Mittelungleichung für
drei positive reelle Zahlen x, y und z ergibt beispielsweise
1 1 1
3
.
+ + ³
x y z 3 xyz
a) Man bestimme die besten (nichtnegativen) Konstanten a 3 und b 3, sodass die Ungleichung
a3
1 1 1
+ + ³
x y z b 3 + xyz
für alle x , y , z Î R > 0 erfüllt ist (d. h. a 3 soll dabei möglichst groß und b 3 möglichst klein sein).
b)* [„Open-end-Teil“] Man betrachte etwa das analoge Problem für n nichtnegative reelle Zahlen
x 1, x 2, ¼, x n (n ³ 2 ) und die Ungleichung
1
1
1
an
,
+ +¼+
³
x1 x2
x n b n + x 1x 2¼x n
aber auch andere „analoge“ Fragestellungen … (W. J.)
Schließlich noch das Quicky Q23.
Man beweise, dass es für jede positive natürliche
Zahl n ein Pythagoreisches Dreieck gibt, von dem jede
Seite die Potenz einer natürlichen Zahl ist, deren Exponent eine natürliche Zahl ³ n ist.
(trad.)
[Zur Erinnerung: Bitte zu den Q-Aufgaben keine Lösungen an mich zu schicken!]
Einsendeschluss für Lösungen (bitte in übersichtlicher und gut lesbarer Form – unbedingt getrennt
nach Aufgaben [!]) 14. Jänner 2011.
Und bitte auch unbedingt in der Betreffzeile die Aufgabennummer(n) anzuführen!]
Aufgabenvorschläge (samt Lösungen), Anregungen, Kritik usw. sind jederzeit willkommen.
Erklärender Zusatz zur Aufgabe Nr. 121,
WN 137 (Heft 2/2009), p. 35.
H. Brandstetter weist auf eine im Angabetext versteckte Unklarheit hin.
Über einem Alphabet A mit b „Buchstaben“ werden
Strings der Länge n mit Buchstaben aus A betrachtet.
Die im Teil a) zu bestimmende Anzahl ab (n, k ) aller
Strings der Länge n, in denen ein vorgegebener String s
der Länge k wenigstens einmal (als Substring) vorkommt, ist insofern missverständlich bezeichnet, als
(wie nicht anders zu erwarten) die Anzahl nicht „einheitlich“ von k, sondern vom jeweiligen String s abhängt und deshalb besser mit ab (n, s ) bezeichnet werden sollte!
Lösung der Aufgaben aus WN 135
(Heft 3/2008), p. 37.
Projektion nicht nur des Einheitsquadrates …
Aufgabe Nr. 117.
a) Gegeben sei ein Einheitsquadrat ABCD, durch
dessen Eckpunkt A eine (variable) Gerade g verlaufen
möge. Das Quadrat wird auf g normal projiziert, wodurch sein „Schatten“ entsteht, dessen Länge mit s (g )
bezeichnet wird.
Man bestimme den Mittelwert m aller Schattenlängen
s (g ) , wenn g eine Volldrehung um A beschreibt.
b)* [„Open-End-Teil“] Man betrachte das analoge
Problem für andere hinreichend „brave“ konvexe Figuren, für den Einheitswürfel, der normal auf eine Ebene
durch einen Eckpunkt projiziert wird, …
(Gerhard KIRCHNER, Univ. Innsbruck)
Zuschriften sind eingegangen von:
Johann BRANDSTETTER (Wien), Karl EDLINGER
(Wien), Herbert HAMETNER (Gallneukirchen), W. J.,
Karl-Uffe KACETL (Wien), Gerhard KIRCHNER (Innsbruck), Wolfgang KIRSCHENHOFER (Herzogenburg),
Otto PREM (St. Johann im Pongau), Kurt SCHOISSWOHL (Innsbruck), Johanna TIBAUDO (Innsbruck)
und Otto VOGL (Linz).
zu a). Von allen Beiträgern wurde im Wesentlichen
der folgende „natürliche“ Lösungsweg beschritten.
Es sei j der Winkel, den die Gerade g und die Seite
AB einschließen. Man unterscheidet nun am besten die
zwei naheliegenden charakteristischen Fälle.
Zuschriften erbeten an Walther Janous, WRG Ursulinen, Fürstenweg 86, 6020 Innsbruck (oder Schneeburggasse 169, 6020 Innsbruck), bzw. WORD-lesbare Dokumente an [email protected]. [Bitte dabei
NUR einen kompatiblen Formel-Editor zu verwenden!
38
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
i) 0 £ j £
p
2
tenlängen bei einer Volldrehung der Geraden g um den
Eckpunkt A den Wert m = 28p , d. h. m = p4 (= 1,2732…).
Mit anderen Worten bedeutet dieses Ergebnis, dass m
das p1 -fache des Umfanges von ABCD ist.
.
zu b). [J. Tibaudo, G. Kirchner und W. J.]
Der erste Typ einer Verallgemeinerung liegt gewissermaßen auf der Hand.
Figur 1
Im 1. Quadranten ist im Dreieck AFC
l für j £ p : s (g ) = 2 × cos æç p - j ö÷ und
è4
ø
4
p
p
l für £ j £ : s (g ) = 2 × cos æç j - p ö÷ .
è
4
2
4ø
Insgesamt bedeutet dies
æ
æ p ö + sin j sin æ p ö ö , d. h.
÷
ç ÷÷
è 4ø
è 4øø
è
s (g ) = cos j + sin j ist.
s (g ) = 2 × ç cos j cos ç
p
Daraus erhält man
p
2
ò (cos j + sin j )× d j = [sin j - cos j]
2
0
0
ii)
p
2
= 1+1 = 2
£ j £ p.
l [J. T. und W. J.] Reguläre Vielecke V n . (Dabei sei n
die Anzahl der Eckpunkte.) Für sie kann man sich unschwer Folgendes überlegen.
i) n ist gerade, n ³ 4.
Es sei g j eine Gerade durch den Eckpunkt A1, die mit
der Vielecksseite A1A2 den Winkel j einschließt, wobei
0 £ j £ pn ist. (D. h., dass die Geraden g j das Dreieck
A1A2A3 zur Gänze überstreichen.)
Dann betragen die Schattenlängen s n (j ) der Vielecke V n auf den Geraden g j (unterschieden nach den
Restklassen modulo 4):
s 4 m (j ) = l m - 1 × cos(my 4 m + j ) + l m + 1 × cos(my 4 m - j )
bzw. s 4 m + 2(j ) =
= l m × cos((m + 1)y 4 m + 2 + j) + l m + 1 × cos(my 4 m + 2 - j )
sin( j y n )
p
sind.
wobei y n = und l j = l j , n =
sin y n
n
yn
Eine einfache Integration ergibt
s n (j )× dj = 1,
0
n º 0, 2 (mod 4 ).
ii) n ist ungerade, n ³ 3.
Wir betrachten nun die Geraden g j durch den Eckpunkt A1, die mit der Vielecksseite A1A2 den Winkel j
einschließen, wobei 0 £ j £ pn ist. (D. h., dass die Geraden g j die „untere Häfte“ des Winkelfeldes ÐA2A1A3
überstreichen.)
Dann betragen die Schattenlängen s n (j ) der Vielecke V n auf den Geraden g j (wieder unterschieden
nach den Restklassen modulo 4):
s 4 m + 1(j ) =
ò
= l m × sin ((2m - 1)y 4 m + 1 - j ) + l m + 1 × cos (2my 4 m + 1 - j )
bzw. s 4 m + 3(j ) =
= l m × sin ((2m + 1)y 4 m + 3 - j) + l m + 1 × cos (2my 4 m + 3 - j)
p
ò
Figur 2
Im 2. Quadranten setzt sich s (g ) aus den zwei Anteilen AF und AG zusammen.
Deshalb erhalten wir aus den Dreiecken ABF und
ADG, dass
pö
pö
æ
æ
÷ + sin ç j - ÷ , d. h.
è
è
2ø
2ø
s (g ) = sin j - cos j ist.
s (g ) = cos ç j -
p
Erneut haben wir
ò (sin j - cos j )× d j = [- cos j - sin j]
p
und
wobei nun allerdings y n =
2n
sin(2 j y n )
sind.
l j = l j,n =
sin(2 y n )
Nun rechnet man durch eine einfache Integration
yn
1
s n (j )× dj = , n º 1, 3 (mod 4 ), nach.
2
0
Diese zwei Integrale legen es („aus Symmetriegründen“) nahe, dass der Mittelwert aller Schattenlängen
s (g ) eines regulären n-Ecks V n den Wert m n = np hat,
wenn g eine Volldrehung um einen Eckpunkt von V n
beschreibt.
Diese Formel bedeutet auch, dass m n der Quotient
des Umkreisdurchmessers und eines Umkreisbogens
von V n ist, der zwischen zwei aufeinanderfolgenden
Eckpunkten von V n liegt.
Bemerkung. Ein (eleganter) Beweis der angegebenen Darstellung von m n wird gerne in den Wiss. Nachr.
veröffentlicht!
p
p
= 1+1 = 2
2
2
Weil man für p £ j £ 32p und 32p £ j £ 2 p entsprechende Ergebnisse erhält, hat der Mittelwert aller Schat-
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
l [G. K.] Parallelprojektion des Einheitswürfels in
Richtung eines dreidimensionalen Einheitsvektors.
39
Es sei A(v ) der Flächeninhalt des Polygons, das sich
durch Parallelprojektion des Einheitswürfels
C = 0,1 ´ 0,1 ´ 0,1 Í R 3 in Richtung eines Einheitsvektors v ÎS 2 Í R 3 ergibt. (Dabei ist wie üblich S 2 die
Einheitssphäre.)
Dann haben alle Flächeninhalte A(v ) den Mittelwert
3
,
wenn
v die Einheitssphäre durchläuft.
2
Vorbemerkung zum Beweis. Wenn man ein Polygon, das in einer Ebene e liegt, in Richtung eines Einheitsvektors v projiziert und mit a den Winkel zwischen
v und der Einheitsnormalen von e bezeichnet, so hat
die Projektion den cos a -fachen Flächeninhalt des
Ausgangspolygons.
Deshalb ergibt sich
1
1
cos a(x ) dS (x ) =
A(v ) =
n(x ), v dS (x ),
2 ¶C
2 ¶C
wobei sich die Integration über die Oberfläche des Einheitswürfels erstreckt und sich der Faktor 12 deshalb ergibt, weil bei der Projektion die Vorder- und Hinterseite
des Würfels idente Flächeninhalte ergeben.
Damit erhalten wir für den gesuchten Mittelwert
1
1
A(v )dS (v ) =
n(x ), v dS (v )dS (x ).
4p S 2
8 p ¶C S 2
Aus Symmetriegründen ist das innere Integral unabhängig von x und kann folgendermaßen mit Kugelkoordinaten bestimmt werden:
[ ] [ ] [ ]
òò
òò
òò
òò òò
p 2p
òò n(x ), v dS (v ) = ò ò
4 p ò cos J sin J dJ =2 p.
S
2
p
0
0
b)* [„Open-end-Teil“] Man betrachte die analoge Fragestellung für die zwei Flächeninhalte, man untersuche
die entsprechenden größten unteren Schranken und
man formuliere und beweise Verallgemeinerungen dieser Aufgabe in der Ebene oder im Raum, etwa für andere Tangentenpolygone, für Tetraeder, …
(W. J.)
Zuschriften sind eingegangen von:
Johann BRANDSTETTER (Wien), Karl EDLINGER
(Wien), Herbert HAMETNER (Gallneukirchen), W. J.,
Karl-Uffe KACETL (Wien), Gerhard KIRCHNER (Innsbruck), Wolfgang KIRSCHENHOFER (Herzogenburg),
Otto PREM (St. Johann im Pongau), Kurt SCHOISSWOHL (Innsbruck), Johanna TIBAUDO (Innsbruck)
und Otto VOGL (Linz).
zu a). Nahezu alle Beiträger gehen in ihren Lösungen
wie O. Prem vor, der folgenden schönen Beweis dafür
angibt, dass
per (PQRSTU ) 2
£
per ( ABC )
3
gilt und die Schranke 23 nicht verkleinert werden kann.
Figur 4
cos J sin J dj dJ =
2
0
Damit ist schließlich
1
1
2 p dS (x ) =
A(v )dS (v ) =
4p S 2
8 p ¶C
1
3
= × (Oberfläche von C ) =
4
2
Abschließende Bemerkung. Das Mittelwertergebnis 41 × (Oberfläche von C ) gilt für alle konvexen Polyeder C und sogar für alle konvexen Körper C mit glatter
Oberfläche.
òò
òò
Seitenparallele Abschnitte eines ebenen Dreiecks
Aufgabe Nr. 118.
Das Sechseck PQRSTU erhält man in einem beliebigen Dreieck DABC dadurch, dass man an den Inkreis
die drei seitenparallelen Tangenten legt.
Figur 3
a) Man bestimme die kleinste obere Schranke des
per (PQRSTU )
, wobei per (XY ¼Z ) den
Quotienten
per ( ABC )
Umfang der Figur XY ¼Z bezeichnet.
40
l Wegen der Gleichheit der Tangentenabschnitte
und aus Symmetriegründen gilt:
ST = QP , TU = QR undUP = RS
Seien BC = a , CA = b , AB = c, PQ = x , r der Inkreisradius und s = a +b2 + c . Wegen der Ähnlichkeit der Dreiecke BCA, BSR, TCU und PAQ gilt:
a
x
.
=
ha ha - 2r
a (ha - 2r )
Daraus ergibt sich x =
(i).
ha
Für den Flächeninhalt A eines Dreiecks kann man
schreiben
ah
A = a = rs .
2
2rs
.
Daraus folgt ha =
a
a2
Einsetzen in (i) liefert x = a - .
s
Für den Umfang U S des Sechsecks PQRSTU erhält
man durch zyklische Vertauschung
æ
a2
b2
c2 ö
U S = 2ç a + b - + c - ÷.
s
s
s ø
è
Setzt man für s ein, so erhält man
2ab + 2ac + 2bc - a 2 - b 2 - c 2
.
US =2
a +b +c
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Behauptung:
2ab + 2ac + 2bc - a 2 - b 2 - c 2
2
US
=2
£
2
3
U ABC
(a + b + c )
Das Gleichheitszeichen gilt für a = b = c.
(
)
(ii)
Beweis: Es ist (a - b ) + (b - c ) + (c - a ) ³ 0.
Daraus ergibt sich
a 2 + b 2 + c 2 ³ ab + bc + ac
2
(a + b + c )
2
2
2
³ 3(ab + bc + ca )
Für den Zähler in (ii) gilt daher
2ab + 2bc + 2ca - a 2 - b 2 - c 2 £ ab + bc + ca £
woraus die Behauptung folgt.
(a + b + c ) ,
2
3
l Einen vollständig anderen Zugang wählt H. Brandstetter. Das Dreieck wird in ein Koordinatensystem gelegt. Der Inkreis sei der Einheitskreis mit Mittelpunkt im
Ursprung. Die gegebenen Punkte entstehen jeweils als
Schnittpunkte von Tangenten an diesen Inkreis. Wir
wählen 3 Tangentenpaare, jedes Paar ist parallel. Das
erste Paar t 1 und t 1 habe Steigung 0. Das sind die Geraden durch PQ bzw. durch BC . Das zweite Tangentenpaar habe Steigung k 1 und das dritte Tangentenpaar
habe die Steigung k 2. Wir können die Steigung k 1 positiv
und die Steigung k 2 negativ annehmen. Die Tangenten
t 2 und t 2 verlaufen durch AB bzw. TU ; t 3 und t 3 verlaufen durch AC bzw. RS. Mit der Berührbedingung bekommen wir die Tangentengleichungen:
erstes Paar
t 1: y = 1
t 1: y = -1
zweites Paar
drittes Paar
t 2: y = k 1x + 1 + k 12
(
)
Für die Summe der Wurzeln der 3 Dreiecksflächen
ergibt sich
AQPA + ABSR + ATCU =
=
r
r
r
s - a )+
s - b )+
(
(
(s - c ) =
s
s
s
A
(3s - a - b - c ) = A
s
Man vergleiche dazu auch
http://www.gogeometry.com/problem/
p142_four_triangles_incircle_areas.htm.
=
zu b). [J. Tibaudo, W. Kirschenhofer und W. J.]
l Wir bezeichnen mit (XY ¼Z ) den Flächeninhalt
der Figur XY ¼Z .
r
Dann gelten (PQRSTU ) = per (PQRSTU )× und
2
(ABC ) = per (ABC )× r2 .
(PQRSTU ) = per (PQRSTU )
Daraus folgt sofort
per ( ABC )
(ABC )
(PQRSTU ) £ 2 mit Gleich(ABC ) 3
t 2: y = k 1x - 1 + k 12
und es gilt nach Teil a), dass
t 3: y = k 2x + 1 + k 22
2
heit genau für das gleichseitige Dreieck ABC. ist also
3
(PQRSTU ) die kleinste
obere
auch für den Quotienten
ABC )
(
Schranke.
Außerdem zeigen gleichschenkelige Dreiecke ABC
mit Basis AB und ÐBAC ® 0, dass der Wert des in Rede
stehenden Quotienten gegen Null strebt.
Deshalb gilt
per (PQRSTU ) (PQRSTU ) 2
0<
=
£ ,
per ( ABC )
(ABC ) 3
t 3: y = k 2x - 1 + k 22
Wenn man die entsprechenden Tangentenschnittpunkte berechnet, ergeben sich die Punkte A, B, C, Q,
R, S, T und U in Abhängigkeit von k 1 und k 2, etwa
æ k 22 + 1 - k 12 + 1 k 1 k 22 + 1 - k 2 k 12 + 1 ö
÷÷
,
k1 - k2
k1 - k2
ø
t 2 Ç t 3 = A çç
è
und
æ 1 - k 22 + 1 ö
, 1÷÷ .
k2
è
ø
t 1 Ç t 3 = P çç
Daraus ergibt sich der Quotient
per (PQRSTU )
q (k 1, k 2 ) =
=
per ( ABC )
PQ + QR + RS + ST + TU +U P
AB + BC + CA
nach einiger Rechnung als
=
q (k 1, k 2 ) =
çæ - k 22 + k 22 + 1 - 1 ÷ö k 12 - çæ k 22 + 1 k 12 + 1 + k 12 + 1 + k 22 + 1 - 1 ÷ö k 1 + çæ k 12 + 1 - 1 ÷ö k 22
ø
ø
è
ø
è
= 2è
oder
v [W. J.] indem man beispielsweise k j = sinh ln w j ,
j = 1, 2, setzt. Damit ergibt sich eine elementar beweisbare polynomiale Ungleichung in zwei Variablen.
Bemerkung. [O. Prem]
Eine interessante Beziehung besteht zwischen der
Fläche AABC des gegebenen Dreiecks und den Flächen
ABSR , ATCU und AQPA der 3 Teildreiecke. Es ist
æ 2rs - 2r ö
2
ç
÷
2
ø r (s - a )
æ
ö
a è a
.
AQPA = ç a - ÷
=
s
s ø
2
è
çæ k 22 + k 22 + 1 + 1 ÷ö k 12 - æç k 12 + 1 + 1 ÷ö k 2 çæ k 22 + 1 + 1 ÷ö k 1 + çæ k 12 + 1 + 1 ÷ö k 22
è
ø è
ø
è
ø
è
ø
Nun muss man noch nachweisen, dass der Wert dieses Quotienten die Zahl 23 nicht übersteigt. Dafür bieten
sich mehrere Möglichkeiten an, etwa
v [H. B.] mittels partieller Ableitungen
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
wobei die zwei Schranken bestmöglich sind.
l In Analogie zum Dreieck erhält man für gewisse
konvexe TangentenvieleckeV 2n + 1 mit einer ungeraden
Zahl von Eckpunkten A1, A2, ¼ und A2n + 1(n ³ 1) und
lauter nichtparallelen Seiten durch Zeichnen der seitenparallelen Tangenten und ihren Schnittpunkten mit den
entsprechenden Seiten von V 2n + 1 ein neues Vieleck
T (V 2n + 1 ) = B 1B 2¼B 4 n + 2 mit doppelt so großer Eckenzahl wie V 2n + 1.
Dafür gilt vermutlich die bestmögliche Ungleichungskette
per T (V 2n + 1 )
T (V 2n + 1 )
p ö
0<
=
£ 1 - tan 2 æç
÷.
è 4n + 2 ø
per (V 2n + 1 )
(V 2n + 1 )
(
) (
)
Ein Beweis oder eine Widerlegung dieser Aussage
wird gerne in den Wiss. Nachr. veröffentlicht!
***
41
Nachtrag zur Lösung der Aufgabe Nr. 114,
WN 136 (Heft 1/2009), p. 35 f.
Darin findet sich folgende Aussage:
Für konvexe n-Ecke n ³ 3 mit Flächeninhalt F gilt für
n ( n - 3)
die Summe Ln aller n Seiten und 2 Diagonalen die
Ungleichung
2nF
1
.
Ln ³
×
2p
p
sin
tan
n
2n
Dankenswerterweise hat Herr K.-U. Kacetl die Lösung kritisch durchgesehen und weist darauf hin, dass
die oben angegebene vermeintliche untere Schranke
für Ln bei gewissen n-Ecken unterschritten wird.
Dies überlegt man etwa mit Konfigurationen 12 ¼n
der Art
Figur 5
2
ö
æ
ç 2nF ÷
÷ =
ç
ç sin 2 p ÷
è
2n ø
p
cos 2
2n
2n » 2n
×
2p
2p
2 p
sin
sin
n
n
2n
×
1
æ pö
ç ÷
è 2n ø
2
=
4
p3
×n 4
Man kann sich auch überlegen, dass sich die ursprünglich angegebene Schranke für alle n ³ 5 unterschreiten lässt.
42
[W. J.]
L3 = a + b + c ³ 2 3F 3 gilt.
(Denn mit der arithmetisch-geometrischen Ungleichung und der Heron-Formel haben wir:
3
s4
æs -a +s -b +s -cö
F 2 = s (s - a )(s - b )(s - c ) £ s × ç
÷ = ,
è
ø
3
27
d. h. 3F 3 £ s .)
Deshalb bleibt als offene Frage die Bestimmung der
besten unteren Schranken m n (F ), sodass bei gegebenem n ³ 3 für alle konvexen n-Ecke mit Flächeninhalt F
n(n - 3 )
für die Summe Ln aller n Seiten und
Diagona2
len die Ungleichung
Ln ³ m n (F )
gilt.
Auch dafür werden weiterführende Ergebnisse gerne
in den Wiss. Nachr. veröffentlicht!
***
Dabei sind 12 = 2, 23 = 1n » 2 und j ( j + 1) » 0,
j = 3, ¼, n - 1, sodass F = 1 ist.
Dann gilt Ln » 2 2 (n - 2 ) + 2, d. h. L2n » 8n 2 +¼
Andererseits ist sin x » x , wenn x ® 0.
Damit ergibt sich für n ® ¥ aber:
=
Dagegen lässt sich für n = 3 zeigen, dass
Zum Schluss noch die Lösung der Aufgabe Q22 aus
dem letzten Heft der WN:
Es seien x 1, x 2, ¼, x n (n ³ 2 ) n reellen Zahlen mit
Produkt P, sodass P - x j , j = 1, 2, ¼, n, ungerade ganze
Zahlen sind.
Man zeige, dass die n Zahlen x 1, x 2, ¼, x n irrational
sind.
Wir führen den Beweis indirekt.
Angenommen, es gäbe eine rationale Zahl unter den
n Zahlen x 1, x 2, ¼, x n , es sei dies o. E. d. A. die Zahl x 1.
Dann ist P eine rationale Zahl. Mit y j = P - x j ,
j = 1, 2, ¼, n, haben wir
(*).
(P - y 1 )× (P - y 2 )×¼× (P - y n ) = P
Nun sind aber y 1, y 2, ¼ und y n lauter ungerade ganze Zahlen. Die Gleichung (*) besagt, dass die rationale
Zahl P Lösung einer algebraischen Gleichung mit lauter
ganzzahligen Koeffizienten und dem Leitkoeffizienten
1 ist. Folglich ist P eine ganze Zahl. Wir unterscheiden
nun folgende zwei Fälle:
i) P ist gerade. Dann sind P - y j , j = 1, 2, ¼, n, ungerade und (*) ist nicht möglich.
ii) P ist ungerade. Dann sind P - y j , j = 1, 2, ¼, n, gerade und (*) ist erneut nicht möglich.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
PHYSIK, ASTRONOMIE
Dr. Christian Wolny
Bremswege mit Excel berechnen
Helmut Brunner
Aus einer zweidimensionalen Grundgesamtheit wird
eine Stichprobe von n Wertepaaren, x i Î X und yi ÎY ,
durch Experimente oder Beobachtungen gewonnen.
Daraus soll auf einen gesetzmäßigen Zusammenhang
zwischen den Größen X und Y geschlossen werden. Als
Beispiel betrachten wir den Zusammenhang zwischen
der Fahrgeschwindigkeit v eines Pkw und dem zugehörigen Bremsweg s. Wir behandeln zwei Modelle, allgemeine Polynome und durch physikalische Überlegungen eingeschränkte Polynome, und verwenden in Excel zwei Zugänge, die automatisierte Datenanpassung
und die Optimierung mit dem Solver.
1. Daten
Wir verwenden die Messdaten der ersten beiden
Spalten von Tabelle 1 über die Bremswege s ab Eintritt
der Bremswirkung in Abhängigkeit von der Geschwindigkeit v. Die Messanordnung filtert dabei die Reaktionszeit des Fahrers und die Ansprechzeit der Bremse
heraus. Die dritte Spalte rechnet v zur besseren Kompatibilität mit physikalischen Modellen in m/s um; die
Rechnungen verwenden nur diese Einheit. Abbildung 1
drückt den Bremsweg als Funktion der Geschwindigkeit aus: Die Rohdaten sind die grauen Quadrate, die
punktierte Linie ist die in Excel vorprogrammierte Kurvenanpassung und die Anpassung an ein physikalisches Modell ist die durchzogene Linie.
s in m
13
17
25
51
82
Im Excel Grafikmodul ist eine Datenanpassung an
Polynome vorprogrammiert. Dazu klickt man im Diagramm mit der rechten Maustaste die Kurve der Rohdaten an und geht zu „Trendlinie hinzufügen“. Dabei hat
man eine Auswahl verschiedener Funktionstypen, darunter Polynomfunktion mit einem Schaltfeld für den
Grad. Nachdem man den Typ angeklickt hat, gibt es
noch die Option, die Funktionsgleichung der Trendlinie anzeigen zu lassen. Die Anpassung an ein Polynom
zweiten Grades liefert dann die punktierte Linie in Abbildung 1. Die Kurvengleichung lautet
s = 0, 0485v 2 + 0, 7343v - 7, 4675.
Dasselbe Resultat erhält man mit der Methode der
kleinsten Quadrate: Gesucht sind dabei die Koeffizienten p, q, r eines Polynoms s = f v = p × v 2 + q × v + r ,
dass das Gütemaß der Anpassung an die Daten v i , s i ,
()
( )
nämlich die Summe der Fehlerquadrate (s - f (v )) ,
2
i
i
minimal wird. Die Differentialrechnung liefert eine Formel für diese Koeffizienten; sie ist im Grafikmodul von
Excel vorprogrammiert. Alternativ kann man die Koeffizienten auch mit dem Solver von Excel ermitteln:1 Die
Zelle, wo die Summe der Fehlerquadrate berechnet
wird, soll minimiert werden, und die Zellen mit den
(zunächst willkürlich gewählten) Parameterwerten sind
die Variabeln.
3. Anpassung an ein physikalisches Modell
Tabelle 1. Tabelle der Messdaten.
v in km/h
50
60
70
100
130
2. Anpassung an ein allgemeines Polynom
v in m/s
13,89
16,67
19,44
27,78
36,11
Abbildung 1. Messdaten und Anpassungen.
Aus der Physik kennt man die Bremswegformel
v2
. Dabei ist v die Geschwindigkeit in m/sec, s
s =
2b
der Bremsweg in m und b die Bremsverzögerung in
m/sec2. Häufig geht man für Pkw in Gefahrensituationen von der Annahme aus, dass die Bremsverzögerung
b = 7,72 m/s2 beträgt, weil sich dann der Bremsweg einv2
fach errechnet als s »
, wenn v in km/h eingege200 m
ben wird.
( )
Die physikalische Bremswegformel geht vom Modell
der beschleunigten Bewegung aus: Während des
1 Für Details vgl. Helmut Brunner (2001): Der Solver von EXCEL
in der Mathematik – eine Kurzdarstellung an Hand von Fallbeispielen. In: Wissenschaftliche Nachrichten. Jg. 115, S. 31–33. In
Excel 2003 wird der Solver im Menü Extras aufgerufen. Damit
man ihn dort findet, muss er im Add-Ins Manager (Menü Extras)
angeklickt sein bzw. muss man ihn von der Office CD aus installieren. Bei Excel 2007 ist der Solver in der Multifunktionsleiste von Daten versteckt und der Add-Ins Manager im Menü
Optionen. Die Sicherheitseinstellungen sollen so eingestellt
werden, dass sie die Ausführung des Solvers nicht blockieren.
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
43
Bremsvorgangs
gilt
die
Bewegungsgleichung
x ¢¢ t = -b , wobei x die Position zum Zeitpunkt t ist.
Zum Bremsbeginn t = 0 sind die Anfangsbedingungen
x 0 = 0 und x ¢ 0 = v .
t2
Die Lösung ist x t = v × t - b × . Die Bremsung en2
v
det zum Zeitpunkt t = , wenn der Pkw steht: x ¢ t = 0:
b
v2
.
Der bis dahin zurückgelegte Weg ist s = x t =
2b
Im Grafikmodul von Excel kann man die Bremswegformel analog wie oben auswerten, nämlich mit einer
Anpassung der Daten an eine Gerade s = p ×U . Dazu
berechnet man in der vierten SpalteU = v 2, plottet s als
Funktion von U und klickt bei der Trendlinie den Typ
„linear“ und die Option „Schnittpunkt = 0“ an. Die Formel der Trendlinie lautet: s = 0, 0638 ×U (mitU = v 2). Für
die Bremsbeschleunigung folgt:
1
b =
= 7, 8370 m /s 2.
2p
()
()
()
()
()
() ( )
( )
Auch bei dieser Aufgabe kann man die Modellkurve,
das Polynom s = g v = p × v 2, mit der Methode der
kleinsten Quadrate an die Daten anpassen. Nun aber
unterscheidet sich die mit dem Solver ermittelte Bremsbeschleunigung vom obigen Wert: Der Solver liefert
b = 7,8335 m/s2. Der Grund für den Unterschied ist die
Angabe von nur vier Dezimalen für p im Grafikmodul
und die dadurch resultierende Fehlerfortpflanzung bei
der Berechnung von b.
Der Solver liefert dasselbe Resultat, wie folgende exakte Formel für p, die auch im Unterricht hergeleitet
werden kann:
Die Summe der Fehlerquadrate
2
für die vorgegebenen Wertepaare v i , s i
s i - g vi
ist eine Funktion h p von p, da g von p abhängt. Setzt
man die Ableitung h¢ p = 0, so folgt:
s i × v i2
.
p=
v i4
()
(
( ))
å
å
()
()
(
Man könnte auf die Idee kommen, den Faktor p und
damit auch die Bremsverzögerung b mit einer einzigen
v2
Messung zu bestimmen, da ja s =
gilt. Das ist aber
2b
falsch, da die Messungen mit zufälligen Fehlern behaftet sind, die sich erst bei einer genügenden Anzahl von
v2
zu
Messpunkten ausgleichen: Berechnet man b =
2s
jedem Messwert, so variieren die Werte zwischen 7,4
und 8,2 m/s2. (Der Mittelwert davon ist 7,7334 m/s2 und
vergleichbar mit den obigen Ergebnissen.)
4. Schlussbemerkung
Wir haben für zwei Modelle eine Datenanpassung
mit der Methode der kleinsten Quadrate durchgeführt.
Das erste Modell verwendet drei Parameter und liefert
eine bessere Anpassung (kleinere Fehlerquadratsumme), das zweite Modell verwendet nur einen Parameter, der aber physikalisch zu deuten ist. Welches Modell
soll man wählen? Es gibt dazu theoretische Überlegungen, die vereinfacht aussagen, dass ein Modell mit mehr
frei wählbaren Parametern nur dann gerechtfertigt ist,
wenn es eine deutliche Verbesserung der Güte der Anpassung bewirkt.2 In Abbildung 1 ist das nicht der Fall
und das einfachere physikalische Modell ist daher vorzuziehen.
Anschrift des Verfassers:
HR Dr. Helmut Brunner, Kaiser-Franz-Ring 22, 2500 Baden
)
2 Details bei Burnham und Anderson (2002): Model Selection
and Mulimodel Inference. Springer Berlin.
Katakaustik
Philipp John, Renate Wolny
Ein Phänomen, die Reflexion von Licht betreffend,
das sich leicht bei geeigneter Beleuchtung einer Kaffeetasse (oder ähnlichen Objekten, die annähernd hohlzylindrische Form besitzen und Licht ausreichend reflektieren) beobachten lässt, ist die Katakaustik. Es handelt
sich dabei um jene Fläche, die von den reflektierten
Strahlen des auf die Innenseite des Objektes einfallenden Lichtes ausgeleuchtet wird. Abbildung 1 zeigt von
oben einen halbzylindrisch zugeschnittenen Konservendosenboden, der von einer Seite (in Abbildung 1
von unten) durch Sonnenstrahlen beleuchtet wird. Die
Katakaustik ist deutlich erkennbar. Frivolere Gemüter
erkennen in dem weniger hell erleuchteten Teil der
halbkreisförmigen Scheibe zwei wohlgeformte Gesäßhälften. Der schwarze Bereich in Abbildung 1 ist der
Schatten der halbzylindrischen Konservendose.
44
Wir wollen uns in diesem Artikel mit der Frage beschäftigen, wie sich die Einhüllende der Katakaustik
mathematisch beschreiben lässt und in weiterer Folge
auch den Flächeninhalt sowie den Umfang der Katakaustik berechnen.
Abbildung 1
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
( )
( )
() ()
() ()
()
sin 2a = 2 sin a cos a
cos 2a = cos 2 a - sin 2 a
so lässt sich die Gerade g a wie folgt schreiben:
æ 2a r 2 - a 2 ö
çr2
÷
a
æ
ö
ç
÷
(2)
l
g a :X = ç 2
+
÷
2
è r - a 2 ø ç 1 - 2a ÷
è
ø
r2
Wir suchen nun jenen Punkt, in dem die Gerade g a
die Einhüllende tangiert. Zu diesem Zweck betrachten
wir einen weiteren Strahl, der im Abstand a + Dx (Dx ist
so zu wählen, dass a + Dx Î 0; r ) vom Ursprung auf
den Halbkreis einfällt. Der reflektierte Strahl liegt auf
der Geraden
æ 2 a + Dx 2
2ö
r - a + Dx ÷
æ a + Dx ö çç r 2
÷ (3)
g a + Dx : X = ç 2
2÷ +m
2
÷
2 a + Dx
è r - a + Dx ø çç
÷ø
12
è
r
Dabei ist m wiederum eine beliebige reelle Zahl. Die
beiden Geraden g a und g a + Dx schneiden einander im Punkt Pa Dx . Wir erhalten diesen Punkt, indem
wir (2) und (3) gleichsetzen, das resultierende Gleichungssystem in den Unbekannten l und m nach einer
der beiden lösen und das Resultat in die entsprechende
Gleichung für g a oder g a + Dx einsetzen. Man erhält z. B.:
2
r2 æ
2a 2 ö
a r 2 - a 2 é r 2 - a + Dx - r 2 - a 2 ù 1 - 2 ÷ Dx
ç
úû 2 è r ø
êë
.
m a Dx =
2
æ 1 - 2a 2 ö a + Dx r 2 - a + Dx 2 - a r 2 - a 2 é1 - 2 a + Dx ùú
ç
÷
ê
r2
è r2 ø
úû
êë
Wir haben jetzt m a Dx statt nur einfach m geschrieben, um anzudeuten, dass m sowohl von a als auch von
Dx abhängt. Der Schnittpunkt
æ 2 a + Dx 2
2ö
ç
r - a + Dx ÷
2
æ a + Dx ö
r
÷ (4)
Pa Dx = ç 2
Dx çç
2÷ +m
2
÷
2 a + Dx
è r - a + Dx ø a
çè
÷ø
12
r
der Geraden g a und g a + Dx liegt, wie wir Abbildung 2 entnehmen, nicht auf der Einhüllenden, aber in
x-Richtung betrachtet zwischen jenen Punkten P1 und
P2 von g a und g a + Dx , in denen die Geraden die
Einhüllende tangieren. Lassen wir Dx gegen Null gehen, so nähert sich P2 dem Punkt P1 und im Grenzfall
Dx = 0 fallen sie mit dem Punkt Pa 0 zusammen. Jeder
Punkt Pa 0 der Einhüllenden ist demnach durch den
Parameter a beschrieben. Um Pa 0 zu berechnen, betrachten wir vorerst die Vektoren in Gleichung (4). In
ihnen lässt sich der Grenzübergang Dx ® 0 problemlos
durchführen. Schwierigkeiten beim Grenzübergang
Dx ® 0 treten jedoch in m a Dx auf, denn hier handelt
es sich um einen Fall der Form „0/0“. Wir sind also gezwungen, die Regel von l’Hospital
f Dx
f ¢ Dx
m a 0 = Dlim
m a Dx = Dlim
= Dlim
x ®0
x ® 0 g Dx
x ® 0 g ¢ Dx
()
()
[ ]
Abbildung 2
Der Einfachheit halber gehen wir von einer reflektierenden Fläche aus, die am Umfang eines Halbkreises situiert ist, und auf die parallel zur Symmetrieachse des
Halbkreises und annähernd parallel zur Ebene des
Halbkreises Licht einfällt. Im Mittelpunkt des Halbkreises mit Radius r denken wir uns den Ursprung eines x/y-Koordinatensystems, auf dessen x-Achse der
Durchmesser des Halbkreises liegt (siehe Abbildung 2).
Der Halbkreis soll sich oberhalb der x-Achse befinden.
Die Lichtstrahlen fallen demnach von unterhalb der xAchse parallel zur y-Achse auf den Halbkreis. Jeder
Lichtstrahl, der auf den Halbkreis trifft, wird nach dem
Reflexionsgesetz reflektiert. D. h., der Winkel zwischen
dem einfallenden Strahl und dem Radius zu dem Punkt
K a , an dem der Strahl den Halbkreis trifft, ist derselbe, wie zwischen diesem Radius und dem reflektierten
Strahl. Das „Zusammenspiel“ aller reflektierten Strahlen
bildet die Einhüllende der Katakaustik (In Abbildung 2
als schraffierte Fläche nur im linken Teil dargestellt).
Wir nehmen (vorerst ohne Begründung) an, dass jeder
reflektierte Strahl auf einer Tangente an die Einhüllende
der Katakaustik liegt.
Um eine mathematische Beschreibung für die Einhüllende zu finden, gehen wir wie folgt vor: Wir betrachten einen Strahl (siehe Abbildung 2), der im Abstand a Î 0; r vom Ursprung einfällt. Dieser Strahl trifft
im Punkt
æ a ö
K a =ç
÷
è r 2 -a2 ø
auf den Halbkreis. Es sei a der spitze Winkel zwischen
dem Radius zum Punkt K a und der x-Achse. Der einfallende Strahl wird demnach unter dem Winkel p2 - a
reflektiert. Der reflektierte Strahl liegt auf der Geraden
r
g a : X = K a + lr a ,
()
[ ]
()
()
()
()
()
welche mit der x-Achse den Winkel 2a - p2 einschließt1.
Dabei ist l eine beliebige reelle Zahl und
æ cos 2a - p2 ö æ sin 2a ö
r
÷=ç
÷
r a =ç
è sin 2a - p2 ø è - cos 2a ø
( )
( )
( )
( )
ein Richtungsvektor der Geraden sowie X ein von l abhängiger Punkt auf g (a ).
æ a ö + l æç sin(2a ) ö÷ .
(1)
g (a ): X = ç
è r - a ÷ø è - cos(2a )ø
()
2
2
Berücksichtigen wir weiters die Zusammenhänge
()
()
a
a2
cos a = Þ sin a = 1 - 2 ,
r
r
sowie die Winkeladditionstheoreme
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
(
(
)
(
)
()
( )
( )
(
()
()
)
)
(
( )
)
(
(
(
)
(
)
(
(
)
)
()
()
()
( )
( )
( )
( )
( )
anzuwenden. Dabei sind f (Dx ), g (Dx ) der Zähler und
Nenner von m (Dx ) bzw. f ¢(Dx ), g ¢(Dx ) deren Ablei()
( )
a
tungen. Nach kurzer Rechnung erhält man:
m a (0 ) = 1 Man beachte: Für a
gerechnet werden.
)
)
(
( )
)
)
(
(
(
(
(
()
( )
)
r 2 -a2
.
2
< 45 ° muss mit dem negativen Wert 2a - p2
45
)
)
)
Damit ergibt sich:
( ) = æçè
Pa 0
ö- a ÷ø
a
r
2
r
2
2
-a
2
r2
æa r 2 - a 2 ö
ç r2
÷
ç - a 2 ÷.
è 2
ø
Dies kann zu
æ
ö
a3
ç
÷ æx ö
2
r
÷
Pa ( 0 ) = ç
ç æç 1 + a 2 ö÷ r 2 - a 2 ÷ = çè y ÷ø
çè è 2 r 2 ø
÷ø
(5)
vereinfacht werden. Es stellen x und y die Koordinaten
des Punktes Pa 0 dar. Wir wollen uns an dieser Stelle,
um unser Vertrauen in die Berechnungen zu stärken,
die Spezialfälle a = 0 und a = r anschauen. Einsetzen
von a = 0 und a = r in Gleichung (5) liefert:
æ 0ö
ær ö
P0 0 = çç r ÷÷ bzw. Pr 0 = ç ÷ .
è 0ø
è2ø
Diese Ergebnisse scheinen, wenn man Abbildung 1
betrachtet korrekt zu sein. Im Prinzip sind wir mit Gleichung (5) in der Lage jeden Punkt auf der Einhüllenden
der Katakaustik zu beschreiben. Wir können aber noch
einen Schritt weiter gehen, denn es lässt sich wie folgt
ein funktionaler Zusammenhang zwischen den Koordinaten x und y von Pa 0 aufstellen. Aus der ersten Zeile
von Gleichung (5) folgt
• Verzerrungen der realen Situation durch das Photographieren
• Leichte Verzerrungen bei der digitalen Bildüberlagerung
Wir können uns jetzt, da wir die Funktion für die Einhüllende kennen, fragen, welchen Flächeninhalt die
Katakaustik hat. Die Fläche F zwischen der x-Achse und
der Einhüllenden ist, unter Ausnützung der Symmetrie
bzgl. der y-Achse, formal durch
F
()
()
()
()
=
3
2
(6).
xr
Da a Î 0; r ist auch x Î 0; r . Einsetzen von (6) in
die zweite Zeile von Gleichung (5) ergibt
a
[ ]
[ ]
é xr 2 23 ù
1 ( ) ú
y (x ) = ê +
ê2 r 2 ú
úû
êë
( )
2
r 2 - xr 2 3 .
r
r é
ù
= 2 ò y (x )dx = 2r ò ê 1 + æçè x ö÷ø ú 1 - æçè x ö÷ø
2
r
r
0
0 ë
û
1
é
ù
= 2r 2 ò ê 1 + u ú 1 - u du
2
0 ë
û
F
= 2r
2
2
3
3
=
æ dy ö÷ 2dx .
è dx ø
= r p + 2ò
1+ ç
0
[ ]
dx
4 2
2
Da r 2p der Flächeninhalt eines Halbkreises mit Radius
r ist, nimmt die Katakaustik genau ein Viertel der
Fläche des Halbkreises ein.
Die letzte Frage, die wir beantworten wollen, ist welchen Umfang U die Katakaustik hat. Mit der Halbkreisbogenlänge r p folgt formal:
r
umgeformt werden. Gleichung (7) gilt aus Symmetriegründen für alle x Î -r ; r . Damit haben wir eine
Funktion gefunden, die die Einhüllende beschreibt. Zur
Bestätigung der Berechnungen haben wir die Probe
aufs Exempel gemacht.
3
5
ü1
ì
é 1
ù
ï 1 - u 23 ê - 3u 3 + u + u 3 ú + 3 arcsin æçu 13 ÷ö ï =
ý
í
ê 8 4 2ú 8
è øï
ïî
úû
êë
þ0
3 r 2p
= × .
2
U
(7)
2
3
gegeben. In der letzten Gleichung haben wir die Substitution x = ru verwendet. Das letzte Integral haben wir
mittels eines Computer-Algebra-Systems analytisch gelöst. „Hardcore-Integrierer“ können dies sicher händisch. Viel ;-) Spaß! Für F ergibt sich dann:
Diese Gleichung kann noch zu
é 1 æ x ö 23 ù æ x ö 23
y (x ) = r ê + ç ÷ ú 1 - ç ÷
êë 2 è r ø úû è r ø
2
Der zweite Term stellt die Bogenlänge der Einhüllenden dar. Differentiation von (7) liefert
2
dy
dx
1 æx ö3
-ç ÷
2 èr ø
=
1
2
,
(8)
æç x ö÷ 3 1 - æç x ö÷ 3
èr ø
èr ø
woraus
1
æ dy ö÷ 2 =
2ö
è dx ø
æ 13
çæx ö
æx ö3 ÷
2ç ç ÷ 1 - ç ÷ ÷
èr ø ÷
çè è r ø
ø
1+ ç
folgt. Damit erhalten wir
ò
r
0
Abbildung 3
In Abbildung 3 sehen wir die Katakaustik aus Abbildung 1, der der Graph der Funktion aus Gleichung (7)
sowie ein Halbkreis überlagert sind. Man erkennt, dass
der Graph der Funktion (7) die Einhüllende sehr gut beschreibt. Die Ursachen für die leichte Ungenauigkeit
vor allem auf der rechten Seite können folgende sein:
• Nicht exakt halbkreisförmiger Reflektor
• Nicht exakt paralleler Einfall der Lichtstrahlen zur
Symmetrieachse des Reflektors
46
æ dy ö÷ 2dx = r
ò0
è dx ø
1+ ç
r
2
ò
1
0
du
u
1
3
1 -u
2
3
4 ò
= 3r
1
0
=
dx
æ x ö÷
èr ø
2ç
1
3
æ x ö÷
èr ø
1- ç
= - 3r
ds
1-s
2
1-s
2
3
1
0
= 3r ,
2
2
3
wobei wir die Substitutionen x = ru und s = u verwendet haben. Die Bogenlänge der Einhüllenden ist daher 3r und der Umfang der Katakaustik ist
U = r p + 3r = 3 + p r .
(
)
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Zu guter Letzt wollen wir begründen, dass jeder reflektierte Strahl auf einer Tangente an die Einhüllende
der Katakaustik liegt. Dazu stellen wir fest:
1. Zu jedem Strahl g a mit a Î 0; r gibt es nach
Konstruktion einen Punkt Pa 0 = x y , der auf g a
liegt und der die Gleichung (7) erfüllt.
2. Es ist g a Tangente an den Graphen der Funktion y x im Punkt Pa 0 . Wir sehen dies wie folgt: Ein3
setzen von x = ar2 aus der ersten Zeile von Gleichung
(5) in (8) liefert:
()
()
()
()
()
dy
dx
()
[ ]
() ( )
=
2a 2
1- 2
r
.
2a
2
2
r
a
r2
Es ist k a die Steigung der Tangente an den Gra3
phen der Funktion y an der Stelle x = ar2 . Aus dem Richtungsvektor
æ 2a r 2 - a 2 ö
÷ æ r a, x ö
r çr2
÷=ç ÷
ra = ç
2
ç 1 - 2a ÷ è r a, y ø
è
ø
r2
()
in Gleichung (2) der Geraden g a , die durch den
Punkt Pa 0 geht, folgt für die Steigung k a von g a :
()
( )= r
r a, y
k a
a, x
1-
= 2a
2a
r2
r 2 -a2
r2
()
2
()
= dy .
dx
()
3. Für die zweite Ableitung von y x gilt für alle :
d 2y
dx 2
=-
r
3
6x
( ) ( )
1
3
2
3
é æ x ö 23 ù 2
ê1 - ç ÷ ú
êë è r ø úû
< 0.
()
()
Dies bedeutet, dass der Graph der Funktion y x in
x Î -r 0 È 0 r negativ gekrümmt ist. Somit liegen
alle Tangenten „oberhalb“ des Graphen von y x . Damit beschreibt y x die Einhüllende der Katakaustik.
()
Liebe Leserin, lieber Leser, wir sind hiermit am Ende
unserer Betrachtungen zur Katakaustik, die mit einem
neugierigen, (wissens)durstigen Blick in ein leeres Kaffeeheferl begann.
European XFEL
Der European XFEL (X steht für Röntgen, FEL für
Freie-Elektronen-Laser) verläuft zu einem großen Teil
in bis zu 38 Metern tiefen Tunneln und benötigt für den
Zugang drei Betriebsgelände. Er beginnt bei DESY in
Hamburg-Bahrenfeld, wo der größte Teil der Versorgungstechnik steht und betrieben wird. Unter dem gelände Osdorfer Born verzweigt sich der Tunnel zum
ersten Mal, unter dem dritten Gelände dann weitere
Male, sodass im Ganzen fünf einzelne Lichtquellen errichtet werden können. Dieses mit 150.000 Quadratmetern größte der drei Areale wird der künftige Campus
des neuen Forschungszentrums sein und liegt in der an
Hamburg grenzenden schleswig-holsteinischen Stadt
Schenefeld. Hier können internationale Wissenschaftlerteams ab 2015 an komplexen Instrumenten die intensiven Röntgenblitze für ihre Untersuchungen nutzen
und Experimente durchführen.
Die Tiefbauarbeiten für die 3,4 Kilometer lange Röntgenlaseranlage European XFEL haben im Jänner 2009
in Hamburg und Schenefeld (Kreis Pinneberg, Schleswig-Holstein) begonnen. Auf Hochtouren gearbeitet
wird für den European XFEL allerdings schon seit einigen Jahren – dies sowohl beim Deutschen ElektronenSynchrotron DESY in Hamburg als auch bei den internationalen Partnern. Unter der Federführung von DESY
wurde der supraleitende Elektronen-Linearbeschleuniger für den Röntgenlaser gemeinsam entwickelt und
wird jetzt gemeinsam gebaut.
In fünf Jahren ist es soweit: Der European XFEL erzeugt laserlichtartige Röntgenblitze mit Wellenlängen
im Bereich von einem Zehntel eines Nanometers, und
zwar bis zu 30.000 Mal in der Sekunde. Sie sind kürzer
als unvorstellbare 100 Femtosekunden. Atomare Ein-
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
zelheiten von unterschiedlichsten Materialien können
entschlüsselt, chemische Reaktionen gefilmt, dreidimensionale Bilder aus der Nanowelt erzeugt und Vorgänge unter extremen Bedingungen wie im Inneren
von Planten untersucht werden. „Dieses internationale
Großgerät kann man sich als Hochgeschwindigkeitskamera vorstellen, die es der Forschung ermöglichen
wird, aus dem Nanokosmos ‚live‘ zu empfangen“,
schwärmt Professor Helmut Dosch, Vorsitzender des
DESY-Direktoriums und des European-XFEL-Rats. Erkenntnisse in fast allen technisch-wissenschaftlichen
Gebieten, die im Alltag eine Rolle spielen, sind zu erwarten – in Medizin, Pharmazie, Energietechnik, Chemie, Materialwissenschaft, Nanotechnologie oder Elektronik. „Die Ergebnisse werden die Entwicklung neuer
Werkstoffe oder wirkungsvollerer Medikamente zur
Folge haben.“
„Weltweit führen diese neuartigen Röntgenquellen
zu einem Durchbruch in der Forschungslandschaft. Es
ist für die internationale Wissenschaft von großer Bedeutung, nicht nur in Japan und den Vereinigten Staaten, sondern auch in Europa an so einer Anlage forschen zu können, zumal diese dann weltweit einzigartige Eigenschaften haben wird“, freut sich der Geschäftsführer der European XFEL GmbH, Professor Massimo
Altarelli anlässlich des politischen Ereignisses im Hamburger Rathaus. „Die internationale Zusammenarbeit
macht den European XFEL nicht nur finanzierbar, sondern bündelt auch Spezialwissen, Erfahrung und Talente für seine Entwicklung, seinen Bau und Betrieb“, so
Altarelli weiter. „Sie ist die Voraussetzung für ein erfolgreiches Projekt und ist nun auch auf politischer und finanzieller Ebene besiegelt. Darüber freuen wir uns!“
47
Status und Perspektiven der
Astroteilchenphysik in Deutschland
Am 25. und 26. Februar 2010 fand am Brandenburger
Standort des Deutschen Elektronen-Synchotrons DESY
in Zeuthen bei Berlin das sechste Treffen der deutschen
Astroteilchenphysiker statt. Zusammen mit den USA
und Frankreich nimmt Deutschland eine weltweite
Spitzenstellung in der Astroteilchenphysik ein. Deutsche Forscher sind führend an den gegenwärtig größten internationalen Projekten der Astroteilchenphysik
beteiligt, wie etwa dem Pierre-Auger-Observatorium
für kosmische Strahlen in Argentinien, den Gammastrahl-Teleskopen H.E.S.S. in Namibia und MAGIC auf
den kanarischen Inseln, oder dem IceCube-Detektor
am Südpol. Dabei wollen sie so grundlegende Fragen
klären, wie:
• Was ist dunkle Materie, der geheimnisvolle Stoff,
der fünfmal häufiger im Universum vorkommt als die
„normale“ Materie?
• Woher kommt die kosmische Strahlung, die
unsere Atmosphäre mit einem ununterbrochenen
Trommelfeuer von geladenen Teilchen überstreicht?
• Welche Rolle spielen Neutrinos im kosmischen
Geschehen?
• Was werden uns Gravitationswellen über die
Umgebung schwarzer Löcher lehren?
Um diese Fragen zu beantworten, haben die Wissenschaftler weltweit verschiedenste Experimente installiert. Nicht nur am Südpol und in der argentimischen
Pampa, sondern auch in den Tiefen des Mittelmeers
und in Höhlen unter Bergmassiven, mit kilometerlangen Rennstrecken für Laserstrahlen und mit kompakten
Nachweisgeräten auf Satelliten arbeiten sie auf neue,
grundlegende Erkenntnisse hin. Für viele der riesigen
48
Geräte der nächsten Generation werden gegenwärtig
die Weichen gestellt. Sie sollen in internationalen Kooperationen entwickelt und betrieben werden.
Die Astroteilchenphysik ist ein rapide wachsendes
Forschungsfeld an der Schnittstelle von Teilchenphysik, Astrophysik und Kosmologie. Das mittlerweile
klassische Experiment auf diesem Gebiet – Kamiokande in Japan – war ursprünglich gebaut worden, um eine
der fundamentalen Vorhersagen der Teilchenphysik,
den Zerfall von Protonen, zu prüfen. Der Protonzerfall
wurde nicht gefunden. Stattdessen maßen die Forscher
Neutrinos von der Sonne und von einer Supernova und
stießen das Fenster zur Neutrino-Astronomie auf. Für
diesen spektakulären Erfolg gab es 2002 den Nobelpreis für Physik. „Ganz nebenbei“ stellte sich dabei aber
auch heraus, dass Neutrinos eine Masse haben – eine
fundamentale Entdeckung für die Teilchenphysik, die
auch Auswirkungen auf unser Bild vom frühen Universum und vom Urknall hat. Die gegenwärtigen und zukünftigen Experimente der Astroteilchenphysik wollen
diese Erfolgsgeschichte fortschreiben. Dabei werden
sie hoffentlich nicht nur einige der gegenwärtig größten
Rätsel des Universums lösen, sondern auch auf gänzlich
Unerwartetes stoßen.
Links mit näheren Informationen:
• Informationen zur Konferenz:
http://www.desy.de/AT2010
• Material zur Astroteilchenphysik:
http://web.mac.com/jbluemer/KAT/KAT-Material+
Links.html
• Die europäische Roadmap der Astroteilchenphysik:
http://www.aspera-eu.org
Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010
Herunterladen