GRUNDWISSENSCHAFTLICHE PROBLEME Mag. Dr. Robert Hofstetter Wirtschafts- und Wissenschaftsethik Prof. Dr. Walter Weis, Klosterneuburg Die Wissenschaft und ihre Lehre sind frei. ÖSTERREICHISCHES STAATSGRUNDGESETZ ART. 17 Was der Mensch ist, das ist er durch die Sache, die er zur seinen macht. KARL JASPERS Es ist letztlich das Bewusstsein der Menschen, das ihr Sein bestimmt. THEODOR FAULHABER Der Auftrag Viktor E. Frankl hat es wunderbar ausgedrückt: „Je mehr er (der Mensch) sich selbst vergisst, in der Hingabe an eine Aufgabe oder an einen anderen Menschen, desto mehr wird er seinem eigenen Menschsein gerecht.“1 Und Frankl fährt fort: „Menschsein ist nicht zuständlich, sondern gegenständlich orientiert; es ist nicht an den inneren Zuständen interessiert, sondern an Gegenständen draußen in der Welt.“2 Das hat auch Martin Heidegger schon gewusst, als er vom „In-der-Weltsein“ des Menschen gesprochen hat, und das hat auch Max Scheler einbekannt, als er den Menschen als „weltoffen“ bezeichnet hat. Damit ist die Aufgabe des Menschen gut umrissen: Er hat weltoffen zu sein und sich mit den Gegenständen der Welt zu befassen. Das ist ein enormer Auftrag – und eine ungeheure Verantwortung: sich die Erde untertan zu machen nämlich. Was bedeutet das überhaupt? Doch wohl die Rechtfertigung, sich technisch betätigen zu sollen – oder zu müssen, denn ohne Hilfsmittel (= Technik) kommt der „nackte Affe“ wohl nicht weit. Mehrdimensionale Mitwelt und Fiktionen Wir sollen, ja wir müssen also umgehen mit der Welt, soweit sie die unsere ist. Aber wie? „Unsere Welt“ ist aber nicht bloß Um-Welt, sondern weit mehr, nämlich auch Mit-Welt! Wirtschaftstreibende und Wissenschafter haben daher die ethische Verpflichtung, eine Welt, die mit uns ist, zu erhalten und pfleglich zu behandeln: nicht nur für uns, sondern auch für die Welt, die ja die unsere ist bzw. uns übergeben worden ist. Viktor Frankl beklagt in diesem Zusammenhang, wie wir mit unserer Welt umgehen – und er hat fürs erste dabei die Wissenschaft im Visier. Nach Frankl muss nämlich der Wissenschafter die Multidimensionalität der Welt, also ihre Vielschichtigkeit und Vernetztheit, um zielgerichtet Wissenschaft betreiben zu können, Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 ausklammern. Da jede Wissenschaft analytisch, zerlegend und kausal ausgerichtet ist, muss der Wissenschafter – um erfolgreich zu sein – eindimensional forschen und die Mehrdimensionalität der Realität vernachlässigen. Der Wissenschafter errichtet also eine Fiktion – ganz im Sinne Hans Vaihingers, der als Begründer des Fiktionalismus in seiner „Philosophie des Als-Ob“ forderte, dass der Forscher bewusst eine falsche, aber zweckmäßige Annahme machen müsse, um sein Ziel verfolgen und erreichen zu können. Nach Vaihinger sind alle Erkenntnisse von Fiktionen durchsetzt: Das menschliche Vorstellungsgebilde der Welt sei „ein ungeheures Gewebe von Fiktionen voll logischer Widersprüche“. Der Fiktionalismus ist ein erkenntnistheoretischer Standpunkt, nach dem die meisten Erkenntnisse und Überzeugungen als Fiktion, also als Erdichtung, als bloße Annahme anzusehen seien. Wissenschaftstheoretisch ist eine Fiktion eine Annahme, die grundsätzlich unmöglich und unbeweisbar ist, aber doch zur Klärung von philosophischen und wissenschaftlichen Sachverhalten nützlich sein kann. Später spricht man dann von „Modellen“, die ja auch immer eine Fiktion sind (z. B. das Atommodell, aber auch die Elementarteilchen, etwa das Photon). Nun, das wäre ja noch hinnehmbar – wenn es zum Ziel führt? Abstraktionen, oft willkürliche Zusammensetzungen, Vereinfachungen, Typisierungen, Schematisierungen usw. sind das Rüstzeug, mit dem der Wissenschafter an seine Mitwelt herangeht und hofft, richtige Denkresultate und Erkenntnisse daraus zu ziehen. Nach Viktor Frankl ist ein solches Vorgehen daher nicht nur legitim, sondern sogar obligat. Aber, sagt Frankl: „Der Wissenschafter selbst sollte auch wissen, was er tut; er sollte sich dessen bewusst sein, dass er es mit je ein-dimensionalen Projektionen zu tun hat, dass er also ver-einfacht.“3 Eindimensionalität als Modell Wissenschaft ist immer Vereinfachung. Die Wissenschafter bilden mit ihren Theorien nie die Natur ab, wie sie ist, sondern wie sie diese sehen bzw. wie sich die Natur nach der Sicht (= Theorie) des Forschers verhalten soll. Man nennt ein solches Herangehen an die Natur auch modellhaft. Wir haben stets nur Modelle von der Natur – und die halten wir gerne und leider für der 1 Frankl, Wissenschaft und Sinnbedürfnis, in: conturen 3/4. 2005, S. 183 f. 2 A.a.O., S. 184. 3 A.a.O., S. 184. 3 Wirklichkeit entsprechend, ja schlimmer noch: Wir halten sie für die Wahrheit. Frankl beklagt daher: „Wenn er (der Wissenschafter) schon alles vereinfacht, vereinfachen muss – dann wäre zu wünschen, dass er wenigstens nicht auch noch alles ver-all-gemeinert.“4 Mit anderen Worten: Frankl meint, dass Wissenschafter dazu neigen, ihre Theorien (also ihre Bilder bzw. Modelle) zu verallgemeinern und „aus partikulären Befunden generelle Schlüsse zu ziehen“. Eine solche Generalisierung kann nach Frankl gefährlich sein – und für die Mitwelt mitunter schädlich. Ein Beispiel wären die rigorosen Wildbachverbauungen und Regulierungen des letzten Jahrhunderts. Mit der Donauregulierung unter Kaiser Franz Josef wurden zwar die Überschwemmungen im Raume Wien und Donau abwärts relativ gut eingedämmt – aber es wurde auch der Grundwasserspiegel des gesamten Marchfeldes mit der Zeit sosehr abgesenkt, dass rund hundert Jahre später der Marchfeldkanal gebaut werden musste, um wieder Wasser auf die mittlerweile versteppten Felder zu bringen. Weltweit tragischere Dimensionen hatte und hat allerdings die Erfindung der FCKW (Fluorchlorkohlenwasserstoffe), jener Chemikalien, die unter anderem als Treibmittel für Spraydosen und Kältemittel für Kühlschränke verwendet wurden: Das Ozonloch war die Folge – mit unzähligen Hautkrebserkrankungen der Menschen, vor allem auf der südlichen Hemisphäre, und noch immer nicht ganz verstandenen und abschätzbaren Einflüssen auf das weltweite Klima. Reduktionismus Wenn wir – im Computerzeitalter – versucht sind, das menschliche Gehirn mit einem Computer zu vergleichen, so mag das legitim sein und zum Verständnis der Funktion unseres Gehirns beitragen. Wenn wir aber das Gehirn auf die Funktion eines Computers reduzieren (!), so bedeutet das einen Verzicht auf eine ganze Menge anderer menschlicher Dimensionen. Obwohl viele Computerexperten fieberhaft nach der AI (artificial intelligence) forschen, und der weltbekannte Regisseur Stanley Kubrick in seinem Epos 2001 – Odyssee im Weltraum die AI schon für das Jahr 2001 (sic!) prognostiziert hatte: Es gibt noch keinen einzigen intelligenten Computer! Und schon gar keinen mit Angst und Mordlust wie HAL, der Bordcomputer des gegenständlichen Raumschiffes in Kubricks Film. (HAL ist übrigens ein „versteckter“ Hinweis auf das Akronym IBM – jeweils minus ein Buchstabe.) Von den menschlichen Dimensionen der Kunst, des religiösen Bedürfnisses, des ethischen Sollensanspruchs, der Liebe, Hoffnung, des Glaubens usw. wird bei einem solchen reduktionistischen Modell von vornherein abgesehen. Der Mensch wird bei generalisierender Anwendung eindimensionaler Theorien simpel entmenscht. Diktaturen – vor allem faschistische – gehen da ganz rigoros und von jeglichem Ethos unbeeinflusst vor: Nur das eigene Volk zählt und hat Wert – alle anderen Menschen sind minderwertig, Feinde, ja nicht einmal menschlich. Schon die alten Griechen hingen diesem reduktionis- 4 tischen Denken an: Sie nannten alle, die nicht griechisch sprachen, „die Stammelnden“: barbari. Unser Vorname Barbara kommt davon. Auch die Eskimos nannten sich „Menschen“ – in ihrer Sprache Inuit. Für die Indianer waren es „Eskimos“ – die Rohfleischesser, eine Abwertung und Entwürdigung. Der „politisch Korrekte“ spricht daher heute nicht mehr von „Eskimos“. Jeder Folterer entmenscht sein Opfer. Jeder Killersoldat (z. B. die Marines, die Eliteeinheit der US-Armee) darf in seinem Gegner gar keinen Menschen mehr sehen: Sonst hätte er eventuell Hemmungen, das zu tun, was er tun – muss: Weil es ihm anbefohlen ist. Reduktionismen sind immer gefährlich – und unethisch! Dennoch reduziert (!) jede Hierarchie ihre Basis zu bloßen Befehlsempfängern und Vollstreckern bzw. Ausübenden der Idee – und vor allem der Ziele! – der Hierarchiespitze. Reduktionismus reduziert das untersuchte Objekt auf ein „Nichts-als“. Der Mensch ist nichts als ein biochemischer Mechanismus; der Soldat ist nichts als eine Tötungsmaschine; der Beamte ist nichts als ein Befehlsempfänger; die Rohstoffe sind nichts als Ressourcen, deren wir uns bedienen; der Staatsbürger ist nichts als ein Steuerzahler (Wähler, Werbeziel, Medienkonsument, Pensionseinzahler, Verkehrsteilnehmer etc.). Das schlechte Gewissen Alfred Nobel, der Erfinder des Dynamits, hat 1895 wegen seiner Gewissensbisse, der Welt eine solche Waffe hinterlassen zu haben, den Nobelpreis gestiftet. Dieser wurde 1901 das erste Mal vergeben – 1905 erhielt Bertha von Suttner, zu Lebzeiten Alfred Nobels seine Privatsekretärin, für ihren Einsatz für den Frieden den Friedensnobelpreis. Der Nobelpreis wird für verschiedene Wissenschafts- und Kulturdisziplinen (nicht aber für Philosophie) verliehen. Manche seiner (Friedens-)Preisträger waren und sind umstritten … Es gibt daher seit 1980 auch den von Jakob von Uexküll gegründeten Alternativen Nobelpreis, der sich noch mehr dem ethischen Ursprungsanliegen Alfred Nobels verpflichtet fühlt, nachdem der offizielle Nobelpreis – zumindest in der Sicht der „Alternativen“ – sich von der Ursprungsidee seines Gründers entfernt hat. Der österreichische Physiker und Schöpfer der Wellenmechanik, Erwin Schrödinger, beklagte: „Am schmerzlichsten ist das völlige Schweigen unseres naturwissenschaftlichen Forschens auf unsere Fragen nach dem Sinn und Zweck des ganzen Geschehens.“ Und Albert Einstein monierte: „… das bloße Denken kann uns nichts mitteilen über die letzten und fundamentalen Ziele ... Hier stehen wir einfach den Grenzen der rationalen Erfassung unseres Daseins gegenüber.“ Ist Ethos also rational nicht erfassbar? Überschreitet ethisches Verhalten in der Wissenschaft die „bloße“ Vernunft? Einstein, an sich ein überzeugter Pazifist, entwarf Flugzeugtragflächen, verbesserte die Torpedotechnik und entwickelte den Kreiselkompass weiter – alles Erfindungen, die primär die Militärs nutzten. Allerdings darf man nicht vergessen, dass dies während des 4 A.a.O., S. 184. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 2. Weltkriegs passierte, als es darum ging, dem Faschismus Einhalt zu gebieten. Einstein war zwar nicht direkt am Bau der Atombombe beteiligt, aber er gab durch einen Brief an den amerikanischen Präsidenten Roosevelt den Anstoß zu ihrer Entwicklung. Wohl unter dem Eindruck von Hiroshima und Nagasaki rief er nach 1945 immer wieder zum Frieden auf. So unterschrieb er nur zwei Tage vor seinem Tod das Einstein-Russell-Manifest gegen einen drohenden Atomkrieg als Folge des „Kalten Krieges“. Das schlechte Gewissen vieler Forscher lässt natürlich die Frage entstehen, wieweit wissenschaftliche (Forschungs-)Tätigkeit wertfrei ist – und ob sie das überhaupt sein kann. Die Finanziers Wenn man ins Kalkül zieht, dass moderne Forschung immenses Geld kostet und es vornehmlich die Industrie ist, die hier als Finanzier in Frage kommt, ist der Verdacht nicht von der Hand zu weisen, dass den Geldgebern die Ziele des hoch dotierten Forschens nicht ganz egal sein können. Wenn man weiter ins Kalkül zieht, dass vor allem die naturwissenschaftliche Grundlagenforschung (hier vor allem die Elementarteilchenphysik) gigantische Experimentieranlagen (z. B. Synchrotrone) benötigt, die nicht einmal mehr ein Staat alleine finanzieren könnte (oder will), kann man sich vorstellen, dass Ergebnisse nicht mehr dem Zufall überlassen bleiben können, sondern sich „Erfolg“ einstellen muss. Auch die Politiker, die hier teilweise mit Steuergeldern die Forschung voranzutreiben versuchen, erwarten sich Ergebnisse. Diese müssen zwar nicht immer nur für das Militär direkt oder indirekt anwendbar sein (z. B. das GPS, das Global Positioning System), aber sie müssen auf alle Fälle kommunizierbar und somit verstehbar oder zumindest in ihren Aussagen und Anwendungen nachvollziehbar sein. Daher wird vor allem Forschung gefördert, die „handfeste“ und umsetzbare Ergebnisse zeitigt – also in der Praxis (= industriell) verwertbar ist. Da aber auch die einschlägigen Magazine und Fachmedien ohne Subventionen nicht gut auskommen, müssen auch sie bevorzugt über solche Forschungsergebnisse berichten. So ist die besorgte Frage sicherlich nicht unangebracht, ob damit nicht auch der Trend des Forschens direkt oder indirekt seine (kommerzielle) Richtung erhält. Kybernetik, Informatik, Kommunikationswissenschaften und die Nanotechnologie sind Forschungsgebiete, an denen die Militärs interessiert sind. Sie gelten daher heute als Zukunftswissenschaften – und sind hoch dotiert. Auch für die Quantenteleportationsexperimente des Wiener Physikers Anton Zeilinger herrscht reges Interesse – vor allem von Seiten der Kryptologie, der Verschlüsselungswissenschaft, da mithilfe der von Zeilinger technisch angewandten Methode ein Geheimcode vorliegt, der nicht entschlüsselt werden kann. Es wird wohl nicht von der Hand zu weisen sein, dass an solchen Entdeckungen oder Entwicklungen großes internationales und finanzielles Interesse besteht. Dazu muss angemerkt werden, dass der einzelne Forscher und sein Team (heute gibt es keine Einzelforscher Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 mehr, sondern nur mehr Teams; einer allein könnte – zumindest auf dem Gebiete der Experimentalphysik – nichts mehr erforschen!) mit an Sicherheit grenzender Wahrscheinlichkeit der Sache wegen die Forschungen betreiben: und dies primär aus wissenschaftlichem Interesse. Für den späteren technischen oder politischen Einsatz der erfolgten Entdeckungen oder Erfindungen, aber auch schon von Formeln und Theorien (sic Einsteins Äquivalenzformel E = m × c 2 als Voraussetzung für den Bau von Atombomben bzw. seine beiden Relativitätstheorien) in der Praxis sind sie letztendlich nicht verantwortlich. Ver-rückte Welt Erich Fromm, deutscher – später mexikanischer – Sozialpsychologe humanistisch-ganzheitlicher Prägung, hat in einem seiner Hauptwerke Haben oder Sein auf den wesentlichen Unterschied zwischen den Existenzformen des schöpferischen Seins und des entfremdenden Habens hingewiesen. Später meinte er, die Welt sei ver-rückt, der Mensch habe sich von seinem Ursprung entfernt, habe seine Position gegenüber seiner ursprünglichen Herkunft eben ver-rückt. Seine Weltanschauung sei aufgrund dieser Ver-rückung heute eben verrückt. Wenn man die Wirtschaft und ihr Treiben heute Revue passieren lässt, weiß man, dass Fromm Recht hatte. Was heute unter dem Stichwort „Globalisierung“ weltweit passiert, lässt keinen – wirtschaftlichen – Stein mehr auf dem anderen. Über Jahrhunderte, ja gar Jahrtausende eingespielte Wirtschaftsmethoden, angefangen von der Selbstversorger-(Subsistenz-)Wirtschaft bis hin zur ökosozialen Marktwirtschaft des postindustriellen Zeitalters, werden in unserer Zeit der „Global Player“, der „Multis“ und der internationalen Finanztransaktionen (Finanzblasen-Wirtschaft) bedenkenlos über Bord geworfen. Alles ist ver-rückt. Die Schere zwischen Arm und Reich geht immer weiter auf – nicht nur weltweit, sondern auch innerhalb der (bisher zumindest) wohllebenden Gesellschaften der Industrienationen. Was ist passiert? Vor allem ist passiert, dass die in Europa mühsam errungene soziale Marktwirtschaft den Zielen des Neoliberalismus geopfert wurde. Ob die EU bei dieser Linie bleibt, ist zur Zeit die große Streitfrage zwischen den politischen Richtungen in Europa. Dass 2005 die neue EU-Verfassung von den Franzosen und den Niederländern abgeschmettert und 2007 in Lissabon durch einen „Vertrag“ ersetzt worden ist, der beinahe an den Iren gescheitert wäre, mag als Indiz dafür gewertet werden, wie sehr die Bürger der Meinung sind, die Wirtschaftspolitik der EU richte sich nicht mehr nach dem Wohl seiner Bürger, sondern eher nach den Interessen des Finanzkapitals. Ist das Sich-die-Erde-untertan-Machen der Bibel allzu einseitig ausgelegt worden? Wieso kann sich die Staatengemeinschaft nicht zu einer verbindlichen Reduktion von Treibhausgasen durchringen? Wieso werden den Öl- und Erdgasinteressen der westlichen Ölmultis – und der ihren Zielen folgenden US-Regierung – einerseits und den politischen Interessen Russlands andererseits (z. B. über die verstaatlichte Gasprom) ganze Länder geopfert? 5 Der Mittelpunktswahn Primär hält jeder das, was er selbst wahrnimmt, für wahr – und auch gleich für die absolute Wahrheit, mit der alle beglückt werden müssten. Je mehr Möglichkeiten für diese Beglückung zur Verfügung stehen, desto heftiger erfolgt die „Missionierung“ – sei es mit (vorerst) wirtschaftlicher Erpressung (Gas-„Krieg“ Russland – Ukraine) zur politischen Gefügigmachung, sei es mit Waffengewalt wie in Jugoslawien, Afghanistan und im Irak-Krieg. Hoimar von Ditfurth, ein Wissenschaftspublizist, hat das „Mittelpunktswahn“ genannt. Dogmatiker, Fundamentalisten, Fanatiker, Extremisten aller Couleurs, Nationalisten und Chauvinisten: sie alle stehen unter diesem Mittelpunktswahn. Georg Wilhelm Friedrich Hegel hatte schon vor 150 Jahren den philosophischen Grund für solches Verhalten gefunden: „Der Wahnsinn (!) des Eigendünkels besteht darin, auf die Barrikaden zu gehen, weil man das Bewusstsein der anderen für ein falsches Bewusstsein hält.“ In der Politik und der Wirtschaft hat dieser „Eigendünkel“ fatale Folgen. Was passiert, wenn ein Manager, ein Arzt, ein Beamter, ein Selbstständiger, ein Angestellter oder eben ein Politiker – eine ganze Regierung – so denkt? Wie weit sind wir von unserem Ur-Sprung ver-rückt? Kann man das noch als Fort-Schritt bezeichnen, auf den wir so stolz sind – oder ist es nicht eher ein FortSprung? Und zwar im wahren Sinne des Wortes: ein Sprung fort vom ursprünglich Gemeinten! Lebt nicht ein jeder Wirtschaftstreibender in der TeilWelt seines Berufes und seiner Interessen und sieht diese als Mittelpunkt all seines Tuns und Handelns an? Es gibt Rechtsanwälte, die in der Welt ihrer Paragraphen aufgehen; die psychologischen oder familiären Folgen ihrer Beratung sind ihnen egal. Hauptsache die Honorarnote wird bezahlt. Für einige Chirurgen ist ein Patient z. B. nur „der Blasenkrebs von Zimmer 15“ – den Menschen dahinter wollen sie gar nicht mehr sehen; für manche Journalisten zählt nur eine „gute Story“ – ob die Ehe oder das Leben des der Journaille Geopferten draufgeht oder nicht, ist sekundär oder überhaupt ohne Belang. Die mit einem Projekt Beschäftigten haben nur ihr Ziel vor Augen – sie gehen darin oftmals sogar bis zur Selbstaufopferung auf. Bei großindustriellen oder politischen Interessen bleiben die Folgen für die Umwelt (z. B. der Klimawandel) oder die Wirtschaft (etwa das längst eingetretene Greißlersterben) oder die Menschen eines Landes (Arbeitslosigkeit durch Technologietransfer in Billigstlohnländer) oft schlichtweg unberücksichtigt. Wir haben schlicht darauf vergessen, dass die Welt, und vor allem unsere Mitwelt (!) ein unteilbares Ganzes ist. Wer aber fortgeht vom Ganzen, der geht auch vom anderen fort. Theodor Faulhaber, österreichischer Sozial- und Wirtschaftswissenschafter und Publizist, hat das folgendermaßen ausgedrückt: „Er (der andere) wurde vom Bruder zuerst zum Konkurrenten, dann zu seinem Gegner, später zum Feind, schließlich zum Todfeind. Wir sind wie die Tropfen des einen einzigen Meeres, die sich vom Meer getrennt haben, als Regentropfen, als Teil eines Baches, eines Sees, eines Flusses, einer Wolke, und wir vergaßen, dass wir Teile eines Ganzen, Tropfen des einen Lebensmeeres sind …“5 Wir 6 haben uns – meint Faulhaber – von der wahren Welt zur Warenwelt entfremdet! Die Schizophrenie der Manager Viele Manager leben schizophren: Sie tun etwas, was sie gar nicht tun wollen – und fallen dabei in eine SinnLücke. Sie wissen ganz genau, dass das, was sie tun, unethisch ist und unermesslichen Schaden anrichtet. Aber die Shareholder wollen es – angeblich – so, und ihnen seien die Manager (als CEO oder General Manager oder Aufsichtsratsvorsitzender etc.) alleine (?) verpflichtet. Wirklich? Einige Zitate dazu: „Das, was die Leute nach oben bringt, bringt sie auch zu Fall. Durchsetzungsfähigkeit, Sendungsbewusstsein, Rücksichtslosigkeit und Monomanie … Wenn man zu allen lieb und nett ist, kommt man im Unternehmen nicht voran.“6 Für Unternehmer und Manager gelten „… die gleichen Regeln des Anstandes wie für jeden Menschen, und da würde ich bei den Zehn Geboten anfangen. Ein Manager speziell hat aber darüber hinaus eine besondere Verantwortung, weil er mit anderer Leute Geld … wirtschaftet. Er hat zudem eine besondere Vorbildfunktion … und außerdem eine soziale und volkswirtschaftliche Verantwortung …“7 Wirtschaftsethische Fragen werden heute vermehrt aufgeworfen. Dabei ist sowohl die Rede von Personverträglichkeit, wobei die Würde des Einzelnen zu respektieren sei, als auch von Sozialverträglichkeit, worunter die Mitleidensfähigkeit mit allem Lebenden verstanden wird. Gefordert wird auch Zukunftsverträglichkeit: Produkte und Produktionsverfahren, die Leben überhaupt bedrohen, seien ethisch nicht zu rechtfertigen. Ethik – ein Luxus? Das Gleiche fordert der Österreicher Matthias Karmasin, Vorstand des Institutes für Medien- und Kommunikationswissenschaft der Universität Klagenfurt, nämlich „… eine kopernikanische Wende unserer Einstellung zum Leben, unserer Einstellung zum eigenen Leben, zum Leben anderer und zum Leben der Natur als Ganzes, und zwar im Blick auf Gegenwart und Zukunft.“ (aus Ethik als Gewinn, Wien 1996) Der deutsch-amerikanische Philosoph Hans Jonas fordert in diesem Zusammenhang: „Der endgültig entfesselte Prometheus … ruft nach einer Ethik, die durch freiwillige Zügel seine Macht davor zurückhält, dem Menschen zum Unheil zu werden … Die dem Menschenglück zugedachte Unterwerfung der Natur hat im Übermaß ihres Erfolges, der sich nun auf die Natur des Menschen selbst erstreckt, zur größten Herausforderung geführt, die je dem menschlichen Sein aus eigenem Tun erwachsen ist.“8 Es geht also um die freiwillige Begrenzung der angemaßten Macht des Menschen; und zwar sowohl gegenüber den Mitmenschen als auch der Mitwelt gegenüber. 5 Faulhaber, Matrix – Kosmos – Psyche, in Tomaschek: Management und Spiritualität, S. 34. 6 Oswald Neuberger: Zum Doppelleben gezwungen, in „Die Zeit“ Nr. 32/1995. 7 Roland Berger, a. a. O. 8 Jonas, Das Prinzip Verantwortung, S. 7. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Jonas weiter: „Ontologisch werden die alten Fragen nach dem Verhältnis von Sein und Sollen, Ursache und Zweck, Natur und Wert neu aufgerollt, um die neu erschienene Pflicht des Menschen jenseits des Wertsubjektivismus im Sein zu verankern.“9 Hans Jonas sieht als Antrieb des von ihm verlangten „verantwortlichen Handelns“ auch die „Furcht“ davor, was alles durch „unverantwortliches Handeln“ entstehen könnte. Er resümiert: Wer diese begründete, aber „selbstlose Furcht“ nicht besitze, „… dem ist unser Schicksal nicht anzuvertrauen“.10 Jonas ist Realist – und Utopist in einem: Er warnt, dass die dunkelsten Zeiten jene seien, wo „… schon die einfache Anständigkeit ungewöhnlichen Opfersinn oder Mut erfordert und ihre Bewährung zur leuchtenden Ausnahme in der Flut der allgemeinen Erbärmlichkeit wird."11 Leopold Kohr, geborener Salzburger, trat dem Irrglauben, dass ständiges Wachstum alle Probleme lösen könne, schon früh entgegen und forderte die Rückkehr zum menschlichen Maß. Er ist der eigentliche „Vater der Grün- und Ökologiebewegung“. Er war auch entschiedener Gegner des nationalen Größenwahns. Sein Ziel war die Zerstörung der großen Nationalismen mit friedlichen und ökologischen Mitteln. Sein Hauptwerk ist The Breakdown of Nations (Das Ende der Großen), das er bereits Ende der fünfziger Jahre des letzten Jahrhunderts vollendet hatte. Erst 1957 wurde das Buch in London veröffentlicht. Er kämpfte für kleine politische Einheiten („Europa der Kantone“) und prägte das Schlagwort von „Small is beautiful“: das Kleine möge eigenverantwortlich im Sinne des Ganzen wirtschaften und agieren. Kohr war damit seiner Zeit um rund ein halbes Jahrhundert voraus. Er erhielt den Alternativen Nobelpreis (siehe weiter oben). Inspiriert von Leopold Kohr forderte auch der britische Ökonom Ernst Friedrich Schumacher eine Rückkehr zum menschlichen Maß. Ivan Illich, berühmter lateinamerikanischer Priester der Befreiungstheologie österreichischer Herkunft, schloss sich diesem Standpunkt an, als er sich für eine Selbstbegrenzung aussprach. Auch der US-amerikanische Psychotherapeut M. Scott Peck hält seinen Landsleuten den Spiegel vor, indem er die US-Gesellschaft des Materialismus, des Egoismus, des manipulativen Verhaltens und der Gefühllosigkeit zeiht. Diese Gesellschaft sei krank und habe schon fast den Glanz dessen, was es heißt, menschlich zu sein, vergessen … Die nackte Konkurrenz Unsere ganze Erziehung inklusive unseres Schulsystems läuft nur auf eines hinaus: Besser zu sein als der andere. Alle sollen mit allen konkurrieren. Es gilt die Devise des Gegeneinander anstatt des Miteinander – und sie wird auch gelehrt: vom Kindergarten an bis zur Doktorwürde. Siegen ist wichtig geworden, das Dabeisein allein (olympisches Ideal in der Antike) genügt längst nicht mehr. Der deutsche Jesuit und Sozialethiker Friedhelm Hengsbach meint, dass das „krankhafte Konkurrenzfieber“ von einer Kombination aus Wettstreit und Zusammenspiel abgelöst werden müsse. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Der deutsch-amerikanische Soziologe Amitai Etzioni fordert eine Moral des Ich und Wir. Das Selbst des Individuums müsse dahingehend entwickelt werden, dass es fähig sei, sich zum Du und zum Wir hin zu öffnen. Er steigt damit in die Fußstapfen von Erich Fromm, der in seinem Weltbestseller Die Kunst des Liebens klargemacht hat, dass man erst sich selbst lieben lernen müsse, um fähig zu sein, auch andere in ihrem Sosein akzeptieren zu können. Gelänge das bei vielen (!), wäre es leichter, die Humanität und die Solidarität zu fördern. Der berühmte Tübinger Theologe Hans Küng, vom Vatikan aufgrund seiner kritischen Haltung mit dem kirchlichen Lehrverbot belegt, verlangt in seinem Projekt Weltethos eine Ethik der Verantwortung anstatt einer kruden Erfolgsethik und fordert die Befolgung der Goldenen Regel, die bereits von Moses, Buddha und Jesus gelehrt wurde. Die Forderung nach ethischem Verhalten ist also nicht neu – und neu ist auch nicht, dass die ethischen Normen nicht befolgt werden. Nur hat das Nicht-Einhalten der primitivsten Verhaltensregeln für das Zusammenleben der Menschen im Zeitalter von Nuklearwaffen und der Globalisierung ungleich gefährlichere Folgen als früher. Und wo bleibt die Verantwortung? Und in der Praxis des Wirtschaftens? In den Unternehmen selbst, egal ob in einem KMU (= Klein- und Mittelunternehmen) oder in den Bürotürmen eines Multi? Auch hier klaffen Theorie und Praxis weit auseinander; auch hier wird ethisches Management zwar verlangt und gelehrt, aber bei weitem nicht in ausreichendem Maße vor- und ausgelebt. Der Jesuit und Managementtrainer Rupert Lay spricht da von einem „schönen Schein“. Und wie ergeht es den so genannten Querdenkern, jenen (wenigen) Mutigen, die es wagen, eben gegen den Mainstream zu denken und zu agieren? Die Vorschläge einbringen, wie es besser gemacht werden könnte und die auch die Konfrontation nicht scheuen? Sie werden oft als Querulanten beschimpft und gemobbt. Wie ethisch ist es, Firmen „gesundzuschrumpfen“? Unter dem Deckmantel des „Sparenmüssens“ bzw. der „Gewinnmaximierung“ oder der „Kostenersparnis“ werden ganze Firmen nicht gesund-, sondern krankgeschrumpft. „Outsourcing“ ist eines der jüngsten neudeutschen Wirtschaftsvokabel: Ganze Abteilungen in Großfirmen werden zugesperrt, die Mitarbeiter entlassen, in (Früh-)pension geschickt oder schlicht dorthin versetzt, wo sie de facto nichts mehr zu tun haben – und auch nichts mehr anstellen können bzw. nichts mehr tun sollen. Man zwingt sie auf diese Weise, von selbst zu kündigen. Dass damit nicht nur Mitarbeiter „vernichtet“, sondern auch die Kreativität und die Motivation eines Unternehmens „outgesourced“ werden, gilt als sekundär – Hauptsache die Shareholder klatschen Beifall! Noch zumindest! Denn: Ist eine Firma einmal zu Tode rationalisiert, erfolgt die Einsicht zu spät. 9 A.a.O., S. 8. 10 A.a.O., S. 392. 11 Jonas, Technik, Medizin und Ethik. Zur Praxis des Prinzips Verantwortung, S. 60. 7 Der deutsche Philosoph Peter Sloterdijk drückte es unverblümt aus: „Die erste Welt produziert massenhaft hoch individualisierte Menschen, um es freundlich auszudrücken. Man könnte sie simpel auch als pure Egoisten bezeichnen.“12 Schon vor rund 50 Jahren hatte der deutsche Nationalökonom Wilhelm Röpke, einer der Väter der sozial und ethisch orientierten Marktwirtschaft angemerkt: „Was nützt aller materieller Wohlstand, wenn wir die Welt immer häßlicher, lähmender, gemeiner und langweiliger machen, und die Menschen den moralischgeistigen Grund ihrer Existenz verlieren? Der Mensch lebt eben nicht nur von Radios, Autos und Kühlschränken, sondern von der ganzen unverkäuflichen Welt, jenseits des Marktes und der Umsatzziffern, von Würde, Schönheit, Poesie, Anmut, Ritterlichkeit, Liebe und Freundschaft, vom Unberechneten, über den Tag und seine Zwecke Hinausweisenden, von Gemeinschaft, Lebensgebundenheit, Freiheit und Selbstentfaltung.“ Seit einigen Jahren scheint sich auch die Österreichische Industriellenvereinigung (IV), beileibe kein Interessenvertreter der Arbeiter und Angestellten (das wäre nämlich die Arbeiterkammer – AK!), mit der „Restrukturierung der Werteordnung in Richtung Redimensionierung des Ökonomischen und Materiellen“13 zu identifizieren. Selbst honorige Manager weltweit agierender Konzerne diagnostizieren einen Wertezerfall, der in den Chefetagen um sich greife. Offen werden „Gier“ und „Rücksichtslosigkeit“ dort zugegeben, und ethi- sche und moralische Verantwortung wird unverblümt eingefordert. Wenn sogar der CEO eines internationalen Konzerns (also eines „Multi“) konstatiert , dass man zu sehr auf „kurzfristige Gewinnmaximierung“ schiele und dafür sogar bereit sei, das „langfristig gewachsene Vertrauen zwischen Management, Mitarbeitern und Kunden aufs Spiel zu setzen“, dann sind das veritable Anzeichen, dass auch „denen ganz oben“ bewusst geworden ist, wohin die Reise gehen könnte – wenn nicht rechtzeitig umgedacht wird! Und das ist beruhigend und gibt Hoffnung. „Dum spiro spero“, wussten schon die Lateiner: So lange man atmet, hofft man. Literatur: Frankl, Viktor E.: Wissenschaft und Sinnbedürfnis. Wiederabdruck aus dem Jahr 1990 in conturen 4/5, 2005. Jonas, Hans: Das Prinzip Verantwortung. Frankfurt 1984, Suhrkamp. Jonas, Hans: Technik, Medizin und Ethik. Zur Praxis des Prinzips Verantwortung. Frankfurt 1985, Insel Verlag. Schumacher, Ernst Friedrich: Die Rückkehr zum menschlichen Maß – Alternativen für Wissenschaft und Technik. Small is beautiful. Reinbek bei Hamburg 1977, Rowohlt. Tomaschek, MIchael (Hg.): Management und Spiritualität. Bielefeld 2005, Kamphausen. 12 Peter Sloterdijk, in: Deutsche Wirtschaftswoche Nr. 45/1995. 13 Faulhaber, Matrix – Kosmos – Psyche, in Tomaschek: Management und Spiritualität, S. 45. Buchbesprechung Karl Edlinger: Darwin – auf den Kopf gestellt. Was bleibt von einer Ikone? Wien–Klosterneuburg 2009, Edition Va Bene. ISBN 978-3-85167-230-5. Das Frankfurt der späten 60er Jahre wird mit der Studentenrevolte und dem Aufbruch zu neuen gesellschaftlichen Horizonten assoziiert. Am selben Ort spielte sich zur gleichen Zeit aber auch eine fundamentale Umwälzung in der Biologie ab. Der Impuls zur Erneuerung ging vom Senckenberg-Institut aus, das nach seinem Gründer, dem Philanthropen und Goethe-Freund Johann Christian Senckenberg, benannt wurde. Karl Edlinger kommt nun das Verdienst zu, den dort entwickelten Ansatz in verständlicher Weise zu präsentieren. Nach der Senckenberger Schule sind die Organismen während der Evolution keine Objekte, sondern weitgehend autonome Subjekte. Lebensräume werden von ihnen immer aktiv erschlossen. Die Möglichkeiten der Erschließung hängen von ihren jeweiligen Möglichkeiten ab, die durch die Konstruktion gegeben sind. Die Umwelt taugt nicht zur Erklärung der Beschaffenheit der Organismen; sie entscheidet aber mit über die Chancen des Überlebens. Die Senckenberger Schule stellt sich damit gegen das vorherrschende Paradigma in der Biologie: gegen die Synthetische Theorie von Ernst Mayr. Kritisiert wird auch die Annahme, dass nur die Bestangepassten überleben. Edlinger verweist auf die Giraf- 8 fen, die ja von den Vertretern der Synthetischen Theorie als Musterbeispiel für den Anpassungsprozess genannt werden. Wer Giraffen beim Trinken beobachtet, merkt sogleich, wie schwer es ihnen fällt, mit dem Kopf zwischen den auseinandergespreitzten Vorderbeinen zum Wasser zu gelangen. Die Blut- und Sauerstoffversorgung ihres Gehirns funktioniert nur mittels einer zusätzlichen Pumpvorrichtung in der Halsschlagader. Es überleben also nicht nur die Bestangepassten, sondern auch jene, die gerade noch gut genug angepasst sind. Im historischen Teil seines Buches zeigt Edlinger, dass Darwins Theorie fast zur Gänze von anderen Biologen antizipiert wurde und mit der Annahme einer Vererbung erworbener Eigenschaften dem Lamarckismus verhaftet bleibt. Er legt auch offen, dass die Entwicklung des Lebendigen völlig unterschiedlich erklärt werden kann. Es gibt nicht die Evolutionstheorie, sondern verschiedene Evolutionstheorien. Was zunächst wie ein homogenes Gebilde aussieht, zerfällt bei näherem Hinsehen in eine Fülle unterschiedlicher, miteinander konkurrierender Subtheorien. Ohne jede Übertreibung kann versprochen werden: Die Leserinnen und Leser von „Darwin – auf den Kopf gestellt“ werden die Biologie und ihre Geschichte in einem ganz neuen Licht sehen. Robert Hofstetter Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 BIOLOGIE, GEOWISSENSCHAFTEN Prof. Mag. Leo Holemy Umweltpolitik für chemische Produkte – wem nützt sie und wovor schützt sie? Thomas Jakl Zusammenfassung Die Instrumentarien, die in der Vergangenheit bemüht wurden, um der schleichend ansteigenden Belastung durch synthetische Chemikalien zu begegnen, hielten den wachsenden ökologischen, gesellschaftlichen und politischen Anforderungen nicht mehr stand. Umweltmedien sind ebenso wie Organismen selbst mit einer Vielzahl von Chemikalien belastet, die wiederum aus einer Vielzahl von Produkten und Prozessen stammen. Der Erkenntnisgewinn, der zur Bewertung dieser Belastungen und zum Ergreifen risikoreduzierender Maßnahmen nötig ist, hinkt ihrer Feststellung zwangsläufig nach – ein umweltpolitisch unbefriedigender und gesellschaftspolitisch unverantwortlicher Zustand. Die aktuelle Herausforderung besteht darin, aufbauend auf Elementen, die sich bewährt haben, neue Rahmenbedingungen zu schaffen, welche den notwendigen Paradigmenwechsel verkörpern. Die glaubwürdige Verankerung des Vorsorgeprinzips in Form von Regelungen, welche die Dokumentation chemischer Eigenschaften direkt an Maßnahmen zum Risikomanagement koppeln, gemeinsam mit dem aktiven Einbinden wirtschaftlicher Prinzipien – wie etwa jenem der Ressourceneffizienz – unterfüttert von einer effektiven Marktbeobachtung sowie einem glaubwürdigen und effektiven Vollzug der rechtlichen Vorgaben werden die Grundlagen der modernen Chemiepolitik bilden müssen. Chemikalien wirken subtil Die Umweltprobleme, mit denen sich Chemiepolitik heute konfrontiert sieht, sind allerdings zumeist von anderer Qualität als jene der schäumenden Flüsse und der plötzlichen Fischsterben. Egal ob man Wasser aus dem klarsten Gebirgsbach, Luft aus einem „Reinluftgebiet“, eine Bodeprobe aus dem Urwald, einen Bohrkern aus der Arktis, Nabelschnurblut oder Muttermilch untersucht: synthetische Chemikalien werden überall nachweisbar sein. Oft in extrem geringer Konzentration, manchmal jedoch auch in unerwartet hoher Anzahl und Menge. Die Freisetzung von Chemikalien kann jedenfalls massive Auswirkungen auf Umwelt und Gesundheit haben. Wie die Vergangenheit zeigte, dokumentieren vielfach erst Effekte in den Umweltmedien oder das unvorhergesehene Auftreten von Chemikalien in Produkten, dass wir vom beherrschbaren und kontrollierten Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 und verantwortungsvollen Chemikalieneinsatz noch weit entfernt sind. auch die ordnungspolitischen Instrumente der EU und ihrer Mitgliedstaaten wurden den gesellschaftlichen Ansprüchen bislang kaum gerecht. Deshalb hat die Chemiepolitik sowohl auf EU- als auch auf nationaler Ebene hohen Stellwert. Auch in der Öffentlichkeit gibt es ein zunehmendes Bewusstsein für die Problematik der Freisetzung von Chemikalien. Die Rolle chemischer Stoffe als potentielle Störfaktoren für den Hormonhaushalt, Allergieauslöser und Mitverursacher von Phänomenen wie der „Belastungen der Innenraumluft“, „Multiple Chemikaliensensitivität“ ist dafür in hohem Maße verantwortlich und macht den Handlungsbedarf offensichtlich. Einer der stärksten umweltpolitischen Trends vergangener Jahre ist, dass Umweltprobleme umso stärker wahrgenommen werden und zu politischen Handlungen führen, je enger der Konnex zur menschlichen Gesundheit ist. So stieg die Ozonschicht in unserer Wertschätzung ungemein, als bekannt wurde, dass sie Schutz vor den krebserregenden UV-Strahlen bietet. Jüngste politische Großvorhaben, wie etwa die neue EU-Chemiepolitik REACH, waren erst durch einschlägige Befunde, die die menschliche Belastung durch Industriechemikalien dokumentierten, politisch durchsetzbar. Die damalige Umweltkommissarin Margot Wallström ließ ihr Blut auf das Vorkommen und die Konzentration von Industriechemikalien testen – der Befund, 28 Stoffe waren nachweisbar, und seine Publikation waren prägend und entscheidend für den Verhandlungsverlauf (EIKMANN und HERR 2004). Das politische Dilemma Bis zum Jahr 2020 möchte die Staatengemeinschaft – so beschloss sie es am Weltumweltgipfel in Johannesburg 2002 – die Freisetzung von umwelt- und gesundheitsschädlichen Chemikalien minimieren. Rund 100.000 Stoffe kennt der europäische Markt – nur ein verschwindend geringer Teil davon ist so dokumentiert, dass eine solide Beurteilungsgrundlage über die Risiken vorhanden ist, die bei Anwendung der Stoffe entstehen. Das zuvor erwähnte „2020 – Ziel“ kann nur erfüllt werden, wenn einerseits gesicherte Dokumentation zur Bedingung für den Marktzugang wird (die wichtigsten Eigenschaften der Stoffe müssen bekannt sein, bevor diese zum Einsatz kommen) und andererseits, wenn es 9 zu einer konsequenten Anwendung des Vorsorgeprinzips kommt. Dieses Prinzip erfordert Maßnahmen zur Reduktion von Belastungen schon bei begründetem Verdacht einer Gefährdung. Es zielt auf Vermeidung ab und steht somit im Gegensatz zu Maßnahmen, die erst greifen, nachdem ein Risiko schon Realität ist, also nur mehr Reparatur möglich ist. Darauf setzen etwa die USA in Form ihres Haftungsregimes: Nach eingetretenem Schaden wird der Verursacher zur Kasse gebeten. Zugespitzt auf zwei Kurzformeln steht auf der einen Seite das europäische „better safe than sorry“ und auf der anderen das amerikanische „the polluter pays“. Das Vorsorgeprinzip mahnt Maßnahmen zum Gesundheits- und Umweltschutz schon dann ein, wenn sich konkrete Gefährdungen abzeichnen. Zum einen zeigen jüngste Befunde, dass bereits äußerst geringe Konzentrationen an Chemikalien in den Umweltmedien (Wasser, Boden und Luft) zu Beeinträchtigungen der menschlichen Gesundheit oder auch zu Schädigungen der Lebewelt im Allgemeinen führen können (COM 2000; HAFNER et. al. 2001). Als Beispiele dafür seien die verstärkte Zunahme von (durch Chemikalien bedingte) Allergien, Symptome wie „Multiple Chemikaliensensibilität“, oder auch die Eigenschaft von Chemikalien erwähnt, das Hormonsystem beeinträchtigen zu können (Stichwort „Endocrine Disrupters“), genannt. Der Dokumentation und Kontrolle dieser Phänomene dienten große Forschungs- und Dialogvorhaben der vergangenen Jahre. REACH – ein Paradigmenwechsel Das REACH-System (Registration, Evaluation and Authorisation of Chemicals; EU-VO 1907/2006) der EU wird jene Informationsbasis zu den Eigenschaften und Risiken von Industriechemikalien sicherstellen, die vorsorgeorientiertes Handeln möglich macht. Im Gegensatz zur derzeitigen Situation, wo die Chemiepolitik anlassbezogen eingreift und dem Vorsorgegedanken nur bedingt entsprechen kann, wird nach Umsetzung des REACH-Systems eine gesicherte Datenbasis zugleich Bedingung für den Marktverbleib und Grundlage zum Management von chemischen Substanzen darstellen. REACH sieht die Registrierung von rund 30.000 Stoffen (Produktionsvolumen von mehr als 1 t p. a. und Hersteller) in einer Datenbank vor, wobei damit die Identität des Stoffes, die Inverkehrbringer sowie physikalisch-chemische, toxikologische und ökotoxikologische Grundinformationen erfasst werden. Weit mehr als 90% des Marktvolumens an Chemikalien werden so erfasst. Die registrierten Stoffe werden einem abgestuften Risikobewertungssystem unterzogen werden. Die einzelnen Anwendungen der Stoffe werden beurteilt – auch die Verwender werden angehalten, ihre Erfahrungen in das System einzuspeisen. Behördlich bewertet und überprüft werden (etwa hinsichtlich des Bedarfs an zusätzlichen Tests) jedenfalls alle Substanzen, deren Produktion 100 Tonnen übersteigt. Das Zulassungsverfahren (Autorisierung) soll besonders gefährliche Chemikalien erfassen – etwa krebserzeugende oder schwer abbaubare, toxische und persistente Stoffe. Selbst für Chemikalien, die in den zahllosen Gebrauchsgegenständen eingesetzt werden, sieht REACH ein Meldesystem vor. 10 Das Europäische Parlament drängte massiv darauf, eine generelle Sorgfaltspflicht der Hersteller und Importeure zu verankern, musste sich hier aber mit zwar politisch wichtigen, aber rechtlich zunächst kaum bindenden Passagen in der Präambel zur REACH-Verordnung bescheiden. Die zweite zentrale und entscheidende Umsetzung des Vorsorgeprinzips durch REACH wird darin bestehen, besonders gefährliche Chemikalien von bestimmten Anwendungen a priori auszuschließen. Stoffe, die etwa Krebs erzeugen oder den Hormonhaushalt durcheinander bringen und sich in der Nahrungskette anreichern, sollen nur mehr in zugelassenen Anwendungsbereichen eingesetzt werden dürfen. Auf Druck des Parlaments muss ein Plan zum Ersatz des gefährlichen Stoffes Bestandteil jedes Zulassungsantrages sein. Die Unternehmen werden so veranlasst, selbst eine Strategie (inklusive zeitlicher Abschätzung und Machbarkeitsstudie) zu entwickeln, besonders bedenkliche Stoffe durch Alternativsubstanzen oder auch durch alternative Technologien zu ersetzen. Der Weg, den REACH bis zu seiner Beschlussfassung durch die europäischen Institutionen genommen hat, wurde auch (um beim Chemiethema zu bleiben) zum Lackmustest für die europäischen Gesetzgebungsverfahren selbst: • REACH ersetzt mehr als 40 geltende EU-Verordnungen respektive Richtlinien. • Mitsamt den zahlreichen technischen Anhängen galt es, hunderte Seiten an Rechtstext zu verhandeln. • Mit der Weiterentwicklung des Vorschlags der Kommission waren 7 Präsidentschaften – auch die österreichische – befasst. • Das Europäische Parlament brachte in 1. Lesung fast 4.000 Änderungsanträge ein. Eine in diesem Umfang und in dieser Komplexität einmalige Belastungs- und Bewährungsprobe für die EU-Institutionen, die einen gesamten seit 40 Jahren gewachsenen Rechtsbereich, der den modernen Anforderungen nicht mehr zu genügen vermochte, komplett neu zu orientieren hatten, damit dieser in diesem Zeitraum gewonnene Erkenntnisse auch adäquat abbildet und berücksichtigt. Im Zuge der Verhandlungen wurde nun auch die Kosteneffizienz von REACH optimiert und der Verwaltungsaufwand reduziert. Eine Folgenabschätzung für Österreich (durchgeführt von einem Konsortium aus: Industriewiss. Institut, für industrielle Ökologie, dem Wirtschaftsconsultant Denkstatt und dem Lehrstuhl für Volkswirtschaftslehre Univ. Klagenfurt) kommt zu dem spröden Schluss: „Zusammenfassend ergibt sich auch unter Berücksichtigung der bestehenden Datenunsicherheiten eine relativ größere Wahrscheinlichkeit der volkswirtschaftlich insgesamt positiven Nettoeffekte einer Umsetzung von REACH in Österreich als für den umgekehrten Fall (volkswirtschaftlicher Ressourcenverzehr bei Einführung von REACH) angenommen werden kann.“ Die Kernaussage dieser Folgenabschätzung ist, dass REACH der österr. Volkswirtschaft ein Vielfaches an Nutzen gegenüber Kosten bringt obwohl zahlreiche zu erwartende positive Effekte für die Umwelt kaum quantifizierbar waren. Der maßgebliche, quantifizierbare volkswirtschaftliche Nutzen besteht in der prognostizierten Vermeidung von berufsbedingten Todesfällen, die vermieden werden können, da etwa die krebserzeugende Eigenschaft Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 bestimmter Arbeitsstoffen durch REACH vorzeitig erkannt wird (GETZNER 2006). kumentierten eindrucksvoll wie vielgestaltig dieses in Österreich entwickelte Geschäftsmodell anwendbar ist. REACH als Chance Chemiepolitik muss alle Manuale bespielen Der ganzheitliche, vernetzte Zugang zu den Stoffströmen selbst wurde während der Vergangenheit durch die begriffliche und politische Trennung von Chemiewirtschaft und Abfallwirtschaft erschwert. Während die Abfallwirtschaft den „Vorteil“ genießt, dass der Stau an Stoffströmen unmittelbar spürbar ist, sei es im Mülleimer daheim, sei es durch die Verknappung des Deponievolumens, Engpässe der Verbrennungsanlagen etc., manifestiert sich der Stau der Stoffströme der Chemikalien erst durch das Umweltproblem selbst (bodennahes Ozon als Stau von Ozonvorläufersubstanzen, Treibhauseffekt als Stau von Treibhausgasen, Gewässerbelastung als Stau von Abwasserinhaltsstoffen ...). Die Stoffströme der konventionellen chemischen Produkte, man denke an Waschmittel, Pflanzenschutzmittel oder Lösungsmittel, werden in die Umweltmedien entlassen und sind daher schwerer fass- und erlebbar als die Ströme der klassischen Abfallwirtschaft, die gebündelt werden und sichtbar sind. Auch hier bringt REACH einen Paradigmenwechsel: Der gesamte Lebenszyklus eines Stoffes (von seiner Herstellung bis zur eventuellen Behandlung als Abfallbestandteil) muss in die Bewertung der von seiner Anwendung ausgehenden Risiken einbezogen werden. Chemikalien-Leasing – ein Welterfolg „Made in Austria“ REACH bedingt zudem eine neue Form der Kooperation und Kommunikation zwischen Herstellern und Anwendern von Chemikalien was das Lebensministerium durch die Entwicklung eines neuartigen Geschäftsmodells (Chemikalienleasing) unterstürzt und nützt. Im Mittelpunkt dieser Pilotvorhaben steht nicht mehr das chemische Produkt selbst, sondern die Dienstleistung, die es verrichtet (Reinigen, Beschichten, Lösen, Kühlen, Schmieren etc.). Der Hersteller von Chemikalien erzielt seinen Profit durch den Umfang an Leistungen, den sein Produkt erbracht hat (Anzahl an gereinigten Teilen, Größe der beschichteten Fläche etc.) und hat damit ein wirtschaftliches Interesse (!) an der Effizienz des Einsatzes seines Produkts. Die Umsetzung derartiger Geschäftsmodelle (dies geschieht mittlerweile in Kooperation mit UNIDO in weltweitem Maßstab, JAKL und SCHWAGER 2007) bringt nicht nur quantifizierbaren Nutzen für die menschliche Gesundheit und die Umwelt – der Anreiz, Chemikalien effizient einzusetzen, wird dadurch extrem gesteigert –, sondern nutzt auch die von der neuen EU-Chemiepolitik vorgezeichnete neue Qualität der Kooperation zwischen Herstellern und Anwendern und eröffnet damit der chemischen Industrie und ihren Partnern einen wesentlichen und mittlerweile auch anerkannten Entwicklungsimpuls (JAKL et al 2003; JAKL und SCHWAGER 2007). 2010 wurde gemeinsam mit der UNIDO ein „Global Chemical Leasing Award“ vergeben. Die 27 Bewerbungen aus zahlreichen Branchen (von Wasseraufbereitung über Textilherstellung bis hin zu Petrochemie) do- Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Diese Achse rechtlicher chemiepolitischer Instrumente wird in der EU respektive in einzelnen Mitgliedsstaaten flankiert und sektoriellen Initiativen, wie beispielsweise den Bestimmungen zu fluorierten Gasen, welche die Treibhauswirksamkeit von Industriechemikalien zum Anlass für eine Reglementierung der damit verbundenen Technologien genommen haben. Österreich hat diesbezüglich Jahre vor der EU eine einschlägige Beschränkungsmaßnahme erlassen (österr. Bundesgesetzblatt BGBl. 447/2002). Ähnlich wie bei der ersten österreichischen Lösungsmittelverordnung (BGBl. 872/1995) wurde dadurch nicht nur Umweltnutzen gestiftet, sondern für die österreichische Industrie auch First Mover Advantages gestützt. Beide Regelungen standen Pate für deren Pendants auf EU – Ebene: So hat Österreich bereits 1995 flüchtige organische Verbindungen (kurz VOCs) in Farben und Lacken beschränkt und so zur Eindämmung des Reizgases Ozon beigetragen. Im Jahr 2003 hat sich die Europäische Kommission entschlossen, dem österreichischen Beispiel zu folgen: Ein Vorschlag für eine neue EU-Richtlinie zur Beschränkung von VOCs in Farben und Lacken wurde mittlerweile als EU – Vorschrift beschlossen. Die österreichische Rechtslage auf die EU – Situation bestens vorbereitet und verfügten somit lange vor den EU – weiten Fristen über ausgereifte Alternativtechnologien. Sonderfall Nanotechnologie Zu den wichtigsten nanotechnologischen Produkten im weitesten Sinne zählen viele Pigmente und andere Zusatzstoffe (Additive) für Lacke und Kunststoffe. Eine der bekanntesten Anwendungen betrifft die Imitierung des Wasserabweisenden „Lotuseffekts“, was selbstreinigende Oberflächen ermöglicht. Auch als Schutzanstrich für Karosserien wird die Nanotechnologie derzeit angewendet. Auch der Schutz vor ultravioletter Strahlung in nahezu sämtlichen (!) modernen Sonnencremes besteht aus nanoskaligem Titandioxid. Ein massiver gegenwärtiger Trend besteht in der Ausrüstung von Textilien und anderen Gebrauchsgegenständen mit Nanosilber (desinfizierend). Ähnlich vielschichtig wie die Anwendungsweisen und Wirkmechanismen sind die toxikologischen Effekte von Nanomaterialien. Da es nämlich nicht bloß die Größe ist, welche die potentielle Gefährdung verursacht, sondern die biologische Interaktion von appliziertem Material und betroffenem Gewebe abhängig, sind nur spezifische Einzelbefunde aussagekräftig. Aus jenen, die bisher vorliegen, lässt sich jedoch in einzelnen Fällen eine äußerst hohe Toxizität (etwa bei röhren- oder kugelförmigen Kohlenstoff-Konstrukten oder Metallkörpern in Nanostruktur) ableiten. Diese liegt in Einzelfällen um Größenordnungen über jener, die das gleiche Material aufweist, wenn es nicht Nanoform appliziert wird – auch bedingt durch das effektive Eindringen dieser Körper in Gewebe und Zellen. 11 Nanomaterialien – Regulierungsaspekte Die etablierten Tests zur Toxizität auf verschiedenen Ebenen sind prinzipiell auch für Nanomaterialien anwendbar – unbefriedigend ist, dass aus der Toxizität nicht notwendigerweise auf den dahinter stehenden Wirkmechanismus geschlossen werden kann. Die Notwendigkeit neuer Tests und deren Entwicklung werden geprüft (OECD) – ein langwieriger Prozess. REACH (die neue EU-Chemikalienpolitik) registriert erst ab 1 Tonne pro Hersteller und Jahr (eine für Nanomaterialien hohe Schwelle) – Zulassung und Beschränkung sind jedoch davon nicht betroffen. REACH umfasst daher auch Nanomaterialien – die Testergebnisse werden jedoch wahrscheinlich nicht (oder nicht im Regelfall) „automatisch“ durch die Registrierung erhoben werden. Bei Nanomaterialien ist die Beweislast also – trotz prinzipieller Herstellerverantwortlichkeit – verstärkt wieder bei den Behörden gelegen. Das EP verlangt spezifische Regelungen im „Nanobereich“. Die EK verfolgt den Weg der Anpassung und Interpretation bestehenden Rechts. Eine Vorgangsweise, die wir zumindest im Bereich Chemikalien, für adäquat empfinden. Diese Situation ist in den Anwendungsfeldern außerhalb der chemischen Industrie (Nahrungsmittel, Pharmazie, Kosmetik) ähnlich: Die Rechtsmaterien und Untersuchungsmethoden sind ohne Berücksichtigung der Nanoproblematik konzipiert worden – viel wird der Herstellerverantwortung überantwortet; teilweise werden „nanospezifische“ Adaptierungen vorgenommen (EU Kosmetikrecht, Nahrungsmittelrecht). Die Gemengelage aus dynamischer wirtschaftlicher Entwicklung, intensiver Forschungstätigkeit, unklarer Risikosituation und vielgestaltiger Prozesse im Vorfeld regulatorischer Entscheidungen ließ es sinnvoll erscheinen, die Rolle und Position Österreich mittels eines nationalen Aktionsplans zu klären respektive zu definieren. Unter breiter Einbindung interessierter Kreise wurde der Österr. AKTIONSPLAN NANOTECHNOLOGIE über einen Zeitraum von einem Jahr konzipiert und ausverhandelt. Der Ministerrat hat dieses politische Dokument am 2. 3. 2010 beschlossen. Die wesentlichsten Inhalte: • Darstellung der in diesem Technologie-Bereich bereits erfolgenden Aktivitäten national/international (IstZustand); • Aufzeigen von möglichen Chancen in/für Österreich; • Identifizierung möglicher Risiken für Mensch/Umwelt sowie vorhandener Wissenslücken. • Daraus folgend liegt der Schwerpunkt auf der Formulierung des österreichischen Handlungsbedarfs sowie konkreter Maßnahmen auf nationaler, EU- und internationaler Ebene (z. B. Förderprogramme, Ausarbeitung von Empfehlungen für Mitgestaltung gesetzlicher Vorhaben unter Miteinbeziehung der Entwicklung in EU/global. Maßnahmen zur Schließung von Wissenslücken, Bewusstseinsbildung in der Bevölkerung, Maßnahmen zur Stärkung des Wirtschaftsstandorts im Bereich Nano in Österreich etc.) 12 Conclusio Innerhalb der Europäischen Union versteht sich Österreich als Motor für eine vorsorgeorientierte, ambitionierte und effektive Chemiepolitik. Dies auch im Zuge der Verhandlung und Umsetzung internationaler Chemiekonventionen, deren Anliegen beispielsweise der globale Ausstieg aus persistenten organischen Verbindungen, aus Substanzen, welche die Ozonschicht schädigen oder die Sicherung eines Managementsystems – und Informationsflusses im internationalen Umfang mit Chemikalien ist. Die Kontrollsysteme, die Österreich speziell für die Einhaltung dieser internationalen Regime etabliert hat, sind vielfach beispielgebend. Zunehmend von Bedeutung und eng verknüpft mit allen chemiepolitischen Handlungsfeldern ist die optimierte Umsetzung von EU-Vorgaben durch die bundesweite Koordinierung und Steuerung des Vollzuges, der in Österreich durch Organe der Bundesländer wahrgenommen wird. Schwerpunktprogramme und stichprobenartige Überprüfungen werden eingebunden in EUweite Aktionen und sollen so die Einhaltung eines hohen Schutzniveaus sichern. Österreich erhebt den Anspruch, sämtliche Teilgebiete der Chemiepolitik zu verfolgen und schwerpunktmäßig aktiv mitzugestalten. Österreichische Initiativen haben in vielen Fällen europäische und internationale Entwicklungen entscheidend beeinflusst. Partnerschaften zwischen politischer Verwaltung, wissenschaftlichen Institutionen, NGOs und der Wirtschaft waren das tragende Fundament dieses Politikbereiches während der letzten Jahrzehnte. Literatur: JAKL T., JOAS R., NOLTE R. F., SCHOTT R., WINDSPERGER A., 2003: „Chemikalien-Leasing – Ein intelligentes und integriertes Geschäftsmodell als Perspektive zur nachhaltigen Entwicklung der Stoffwirtschaft“, Springer Verlag Wien, New York JAKL T. und SCHWAGER P., 2007: „Chemical Leasing goes global – selling services instead of barrels“, Springer Verlag Wien, New York HAFNER G., JAKL T. und LOIBL G., 2002: „Conference Conclusions by the Chairs“ in „THE ROLE OF PRECAUTION IN CHEMICALS POLICY“, Freytag E., Jakl T., Loibl G., Wittmann M. (Editors), Favorita Papers, Diplomatic Academy of Vienna EIKMANN T. und HERR C., 2004: „Sind die Human-BiomonitoringWerte unserer Politiker und Abgeordneten ein wichtiges und richtiges politisches Instrument?“, Umweltmed. Forsch. Prax 9 (6), ecomed Landsberg, D. PERTEHN-PALMISANO B. und JAKL T., 2004: Chemical Leasing – Cooperative busness models for sustainable chemicals management, Environmental Science and Pollution Research (Volume 12, Number 1/Januar 2005), economed publishers, Landsberg, Tokyo, Mumbai, Seoul, Melbourne, Paris RENGELING H.-W., 2003: Umgestaltung des deutschen Chemikalienrechts durch europäische Chemikalienpolitik; Carl Heymanns Verlag, Köln GETZNER M., 2006: „Kosten und Nutzeneffekte der Chemiepolitik“, LIT Verlag Wien KOMMISSION DER EUROPÄISCHEN GEMEINSCHAFTEN, Mitteilung der Kommission über dei Anwendbarkeit des Corsorgeprinzips, COM 2000 (1) Anschrift des Verfassers: Ministerialrat Mag. Dr. Thomas Jakl, Leiter der Abt. für Chemiepolitik im BM für Land- und Forstwirtschaft, Umwelt und Wasserwirtschaft, A-1010 Wien, Stubenbastei 5, [email protected] ECHA (European Chemicals Agency, Helsinki) Chairman of the Management Board Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 CHEMIE Dr. Christian Wolny Nachweis von Lebensmittelallergenen Martina Wolny In der westlichen Welt nimmt die Anzahl an Lebensmittelallergikern stetig zu. Zur Zeit sind etwa 3% der Erwachsenen und 6–8% der Kinder betroffen. Aus diesem Grund hat die europäische Union eine Liste der häufigsten Allergene in Lebensmitteln erstellt, deren Kennzeichnung auf Lebensmitteln verpflichtend ist. Zu diesen zählen nach Stand 20071 folgende 14 Nahrungsmittelzutaten und daraus gewonnene Erzeugnisse mit den in Klammern angeführten Ausnahmen: Glutenhaltige Getreide (außer: Glukosesirup und Maltodextrin auf Weizenbasis; Glukosesirup auf Gerstenbasis; Getreide zur Herstellung von Destillaten oder Ethylalkohol landwirtschaftlichen Ursprungs für Spirituosen und andere alkoholische Getränke), Krebstiere, Eier, Fische (außer: Fischgelatine als Träger für Vitamin- oder Karotinoidzubereitungen sowie Fischgelatin oder Hausenblase als Klärhilfsmittel in Bier und Wein eingesetzt), Erdnüsse, Sojabohnen (außer: vollständig raffiniertes Sojabohnenöl und -fett; natürlich gemischte Tocopherole [E306], natürliches D-alpha-Tocopherol bzw. -azetat und -sukzinat aus Sojabohnenquellen; Phytosterine und -ester aus pflanzlichen Sojabohnenölen; aus Pflanzenölsterinen gewonnene Phytostanolester aus Sojabohnenquellen), Milch (außer: Lactit; Molke zur Herstellung von Destillaten oder Ehtylalkohol landwirtschaftlichen Ursprungs für Spirituosen und andere alkoholische Getränke), Schalenfrüchte (außer: Schalenfrüchte für die Herstellung von Destillaten oder Ethylalkohol landwirtschaftlichen Ursprungs für Spirituosen und andere alkoholische Getränke), Sellerie, Senf, Sesamsamen, Schwefeldioxid und Sulphite in Konzentrationen von mehr als 10 mg/kg, Lupinen und Weichtiere. Um die richtige Kennzeichnung überprüfen zu können, müssen diese Lebensmittelkomponenten in Spuren nachgewiesen werden können. Was sind Lebensmittelallergien? Lebensmittelallergien zählen zu den Nahrungsmittelunverträglichkeiten. Diese können nach einer Klassifizierung der European Academy of Allergy and Clinical Immunology aus dem Jahr 1995 wie folgt eingeteilt werden: Es gibt toxische, an welchen jeder erkranken würde, und nicht-toxische Reaktionen auf Nahrungsmittel bzw. deren Bestandteile, die nur bei bestimmten Personen auftreten. Bei den nicht-toxischen können immunologische (Lebensmittelallergien) und nicht-immunologische Reaktionen (Lebensmittelintoleranzen) unterschieden werden. Lebensmittelintoleranzen können enzymatisch, pharmakologisch oder anders (wofür noch keine Klassifizierung existiert) verursacht werden. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Von einer Allergie spricht man nur, wenn es sich um eine Fehlreaktion des Immunsystems handelt, d. h. der Körper erkennt bestimmte Lebensmittelbestandteile (eigentlich bestimmte enthaltene Proteine) als körperfremd und bekämpft diese. Am häufigsten treten IgE vermittelte Allergien auf. (IgE gehört zu den Immunglobulinen und wird gemeinsam mit IgG, IgD, IgM und IgA vom körpereigenen Immunsystem produziert. Nähere Informationen dazu unter Immunsystem-Antigene/Antikörper). Der Mechanismus für diesen Typ von Allergie sieht etwa wie folgt aus: 1. Sensibilisierung: Erster Kontakt mit einem bestimmten Protein führt zur Bildung von IgE, es kommt aber noch zu keiner allergischen Reaktion. Die gebildeten IgE binden an Mastzellen. 2. Allergische Reaktion: Bei erneutem Kontakt mit demselben Protein bindet dieses an zwei der bereits existierenden IgE an der Mastzelle, wodurch es zu einer Quervernetzung dieser kommt. Die Mastzelle wird dadurch aktiviert und schüttet Mediatoren wie z. B. Histamin aus, welche zur Auslösung einer allergischen Reaktion führen. Allergische Reaktionen können von Individuum zu Individuum verschieden stark sein und sich anhand anderer Symptome zeigen sowie verschiedene Organe involvieren. Sie können zu relativ harmlosen Hautrötungen und Juckreiz über Bauchschmerzen, Durchfall und andere Erkrankungen des Gastrointestinaltrakts bis hin zu einem anaphylaktischen Schock und wegen HerzKreislauf-Stillstand sogar zum Tod führen. Bereits geringste Mengen allergener Verbindungen können bei empfindlichen Personen zu heftigen Reaktionen führen. Eine allergische Reaktion kann nur durch komplettes Meiden der Lebensmittel, auf die eine Person allergisch ist, verhindert werden. Daher ist der Nachweis in geringen Mengen wichtig. Immunsystem – Antigene/Antikörper Das Immunsystem reagiert auf das Eindringen von Fremdkörpern (körperfremde Proteine – Antigene [AG]) mit der Bildung von Antikörpern (AK). Die Antikörper (Immunglobuline – Ig) gehören zur Klasse der Globuline. An bestimmten Regionen der AK, den sogenannten Epitopen, können AG gebunden werden, wobei die AG nur in bestimmten Sequenzteilen, dem Paratop, gebunden werden können. 1 Richtlinie 2007/68/EG die Änderungen der „Richtlinie 2000/13/ EG zur Angleichung der Rechtsvorschriften der Mitgliedstaaten über die Etikettierung und Aufmachung von Lebensmitteln sowie die Werbung hierfür“ auf Grund neuer wissenschaftlicher Erkenntnisse vorsah. 13 Unser Körper produziert eine Unzahl unterschiedlicher Antikörper gegen die verschiedenen Fremdkörper. Trotzdem können die AK in fünf Klassen entsprechend der unterschiedlichen genetischen Codierung der schweren Ketten (siehe später) eingeteilt werden: Immunglobulin G (IgG) – liegt als Monomer vor; dominierende AK-Klasse im Blut; wird bei erstmaligem Kontakt mit einem Erreger erst später gebildet, bleibt dann aber lange erhalten; einzige AK-Klasse, die von der Mutter auf das Kind übergeht und dieses in den ersten Lebenswochen schützt. Immunglobulin A (IgA) – liegt als Monomer im Serum vor; wichtigste AK in den Körpersekreten (als Dimer); hoher Anteil von IgA in der Muttermilch wichtiger Schutzfaktor gegen Brech- und Durchfallserkrankungen des Säuglings. Immunglobulin M (IgM) – liegt meist als Pentamer vor; vorwiegend im Blut; wird bei Erstkontakt mit einem Erreger zuerst gebildet. Immunglobulin D (IgD) – liegt als Monomer vor; geringe Mengen in der Blutflüssigkeit. Immunglobulin E (IgE) – liegt als Monomer vor; geringe Mengen in der Blutflüssigkeit; vor allem membrangebunden auf Mastzellen; verantwortlich für viele allergische Erkrankungen. ® Aufbau eines Antikörpers Jeder Antikörper besteht aus zwei identischen schweren Ketten und zwei identischen leichten Ketten. Diese sind über Disulfidbrücken konvalent verbunden und bilden eine Ypsilon-förmige Struktur aus. Die Ketten können in Domänen (Aminosäuresequenzbereiche) unterteilt werden. Eine leichte Kette besteht aus einer variablen und einer konstanten Domäne und eine schwere Kette aus einer variablen und drei (IgG, IgA, IgD) oder vier (IgM, IgE) konstanten Domänen. Die Antigenbindungsstelle wird aus den variablen Domänen einer leichten und einer schweren Kette gebildet. Somit verfügt ein AK stets über zwei Epitope. Nachweismethoden für potenziell allergene Lebensmittelinhaltsstoffe Die am häufigsten eingesetzten Methoden basieren entweder auf dem Nachweis von Proteinen (enzymatisch, immunanalytisch [ELISA]) oder auf dem Nachweis der DNA eines bestimmten Lebensmittels (PCR bzw. meist Real-time-PCR). Es können entweder die tatsächlich allergenen Proteine (soweit sie überhaupt schon identifiziert sind) bzw. die dafür kodierende DNA oder aber beliebige mitunter nicht allergene für das Lebensmittel spezifische Komponenten nachgewiesen werden. Weitere Möglichkeiten für die Detektion bieten andere immunnochemische Methoden, wie RAST (RadioAllergoSorbentTest; radioaktiv markierte IgE werden verwendet) oder EAST (enzymmarkierte IgE werden verwendet), Immunoblotting, Rocket-Immunoelektrophorese, Radioimmunoassay, Immunofloureszenzassay und Luminoimmunoassay, die alle Allergene auf Proteinebene nachweisen können. PCR und Real-time-PCR PCR steht für Polymerasekettenreaktion (polymerase chain reaction). Die Methode ist der in jedem Lebewesen 14 stattfindenden DNA-Amplifikation nachempfunden. Diese In-vitro-Amplifikation von DNA wurde 1983 von Kary Mullis „erfunden“, wofür er 1993 den Nobelpreis erhielt. Für den Nachweis auf DNA-Ebene muss aus dem Lebensmittel DNA in ausreichender Menge und Reinheit extrahiert werden. Diese wird bei der Reaktion eingesetzt und dient als Templat. Außerdem kommen in die Reaktionsmischung noch Primer (spezifische Oligonukleotide) und eventuell eine fluoreszenzmarkierte Sonde. Ein kommerziell erhältlicher Supermix, der die Nukleotide (Desoxynukleosid-Triphosphate-dNTPs) sowie Cl.–- und Mg2+-Ionen enthält und eventuell einen Fluoreszenzfarbstoff, der sich unspezifisch in jegliche Doppelstrang-DNA einlagert, wird ebenfalls zugegeben. Die Oligonukleotide, die als Primer dienen sollen, müssen komplementär zu den Strängen der TemplatDNA und für diese spezifisch sein. Sie definieren den zu amplifizierenden Abschnitt der DNA. Die Spezifität muss zuerst mit reiner DNA unterschiedlicher Lebensmittelbestandteile getestet werden und stellt sich mitunter als recht kompliziert heraus, weshalb das Primerdesign viel zeit in Anspruch nehmen kann. Falls mit einer Sonde gearbeitet werden soll, muss diese, ebenfalls ein Oligonukleotid, komplementär zu einem Strang in dem Abschnitt, der amplifiziert wird, liegen. Die Reaktion läuft nach folgendem Schema ab: 1. Schritt: Die Doppelstrang-DNA (also jegliche DNA in der Probe inkl. der interessierenden – der Templat-DNA) wird bei 94–95°C in die zwei Einzelstränge gespalten. 2. Schritt: Bei einer niedrigeren Temperatur (zwischen 52 und 62°C), der sogenannten Annealing-Temperatur, lagern sich die spezifischen Primer an die Templat-DNA an. 3. Schritt: Zu den zwei Einzelsträngen wird der jeweils komplementäre mit Hilfe eines Enzyms, wie z. B. der Taq-Polymerase (Taq = thermus aquaticus; hitzestabiles Enzym aus Taq-Bakterien, die in Geysiren leben; früher wurde eine nicht temperaturbeständige Polymerase verwendet diese musste nach Schritt 1, in dem sie denaturiert, stets neu zur Reaktionsmischung hinzugefügt werden), aufgebaut. Dieser Schritt kann entweder ebenfalls bei der Annealing-Temperatur stattfinden oder aber bei 72°C, da dies die optimale Temperatur für die Polymerase ist. Diese drei Schritte ergeben einen Zyklus. Es werden meist etwa 40–60 Zyklen durchgeführt. Abbildung 1 zeigt eine anschauliche Darstellung der pro Zyklus ablaufenden Schritte. Rein theoretisch ergibt sich eine Verdoppelung der DNA nach jedem Zyklus und somit ein exponentielles Wachstum (nach n Zyklen 2n). Daraus ergibt sich, dass im Prinzip eine Doppelstrang-Templat-DNA zum Nachweis ausreicht. In der Praxis sollten doch etwa 10.000 Templatmoleküle vorliegen und auch exponentielles Wachstum findet nicht während der gesamten Reaktion statt. Bei den ersten Zyklen ist noch kein exponentielles Wachstum zu beobachten, vermutlich da die Wahrscheinlichkeit, dass sich Templat, Primer und Enzym zur passenden Zeit treffen, recht klein ist. Die Vermehrung steigt mit zunehmender Templatmenge an und nach einigen Zyklen mit exponentiellem Wachstum nimmt der Anstieg auf Grund von Hemmungen im Reaktionsgemisch wieder ab. ® Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Abbildung 1: Die Pfeile stellen die Primer dar. Diese als Start für die Strangsynthese dienenden Oligonukleotide werden nach dem Abbildung 1: Amplifikationsschritt (Elongationsschritt) nicht mehr als Pfeil dargestellt, da sie jetzt Teil der Doppelstrang-DNA sind. Bei einer Real-time-PCR kann die Amplifikation durch Einsatz eines Fluoreszenzfarbstoffs und Messung des Fluoreszenzsignals am Ende eines Zyklus in Echtzeit mitverfolgt werden. Eine typische Amplifikationskurve einer Real-time-PCR zeigt einen sigmoiden Verlauf (siehe Abbildung 2). Es gibt entweder die Möglichkeit, einen unspezifisch in Doppelstrang-DNA einlagerbaren Farbstoff oder eine fluoreszenzmarkierte Sonde zu verwenden. Die Sonde kann in verschiedenen Arten wie z. B. Taq-Man, molecular beacons oder scorpion, ausgeführt sein. Wird die Methode mit Sonde gewählt, bedeutet ein Signalanstieg auch gleichzeitig einen positiven Nachweis, wenn die Spezifität der Primer gegeben ist. Beim Arbei- Abbildung 2: Die Abbildung zeigt das Fluoreszenzsignal (PCR Base Line substrated Curve Fit RFU) einer positiven Kontrolle (PC) Abbildung 2: sowie einer negativen Kontrolle (NC), aufgetragen gegen die Zyklenzahl. Die Kurve der PC zeigt den typisch sigmoiden Abbildung 2:Kurvenverlauf, während die NC kein Signal liefert. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 15 ten mit einem unspezifischen Fluoreszenzfarbstoff muss zur Absicherung eine Schmelzkurve aufgenommen werden, da mitunter auch andere DNA-Stränge als die Ziel-DNA vermehrt werden und somit ein Signal liefern. Diese weisen dann aber meist einen anderen Schmelzpunkt auf. Sind die Schmelzpunkte ebenfalls gleich oder ähnlich, besteht die Möglichkeit einer weiteren Überprüfung der Gleichheit bzw. Unterschiedlichkeit durch eine Auftrennung der Größe nach mittels Gel-Elektrophorese. Somit ist die Aussage über einen positiven Nachweis in diesem Fall schwieriger. Zur Kontrolle, ob die Amplifizierung funktioniert, muss immer eine positive Kontrolle, die sicher die Templat-DNA enthält und eine negative Kontrolle, die anstatt jeglicher DNA nur Wasser enthält, gemacht werden. Außerdem muss zur Quantifizierung stets eine Standardkurve erstellt werden. ELISA ELISA steht für Enzym-Linked Immunosorbent Assay. Der Nachweis nützt die spezifische Wechselwirkung zwischen AG und AK und eine enzymatische Reaktion zum Sichtbarmachen. Es gibt zwei gängige Varianten, die zur Detektion von Lebensmittelallergenen eingesetzt werden, den Sandwich-ELISA und den kompetitiven ELISA. AK-Herstellung Für immunologische Nachweismethoden werden Antikörper, die gegen die nachzuweisenden Proteine gerichtet sind, benötigt. Diese werden aus Tieren, die mit den entsprechenden Proteinen immunisiert werden, gewonnen. Bildet ein Tier Antikörper gegen die injizierte Substanz, dann können diese aus dem Blut isoliert werden (z. B. bei Hasen) oder im Falle von Hühnern aus den Eiern gewonnen werden. Sanwich-ELISA: 1. Schritt: Coaten: auf einer Mikrotiterplatte (mit 96 Kavitäten) wird ein gegen das zu bestimmende Protein gerichteter Antikörper (AK1) gebunden. 2. Schritt: Blocken: Es wird eine Proteinlösung (meist Casein) zugegeben, um alle möglicherweise freien Stellen an den Wänden der Kavitäten zu besetzen und somit unspezifische Bindung des AG zu verhindern. 3. Schritt: Zugabe des AG (Probe oder Standard [in verschiedenen Konzentrationen]) und Zugabe eines weiteren, gegen das AG gerichteten AK (AK2). Das AG liegt dann wie in einem Sandwich zwischen zwei AK. 4. Schritt: Zugabe eines gegen AK2 gerichteten AK, welcher mit einem Enzym (meist Meerrettich-Peroxidase) markiert ist. 5. Schritt: Zugabe eines passenden Substrats. Dieses wechselt idealerweise von farblos zu einem gefärbten Produkt, wodurch eine photometrische Messung ermöglicht wird. 6. Schritt (eventuell): Stoppen der Reaktion durch Zugabe von H2SO4, wodurch das Enzym denaturiert und somit eine weitere Farbveränderung verhindert wird. Zwischen den Schritten 1–4 erfolgt jeweils ein Waschschritt. Zur Veranschaulichung der Arbeitsschritte dient Abbildung 3. Bild A1 zeigt die nach dem Coaten gebundenen AK1 (vgl. Schritt 1). Bild B1 zeigt die Reaktion der gebundenen AK1 mit dem zugegebenem AG und die Reaktion des AK2 (im Überschuss) mit den AG. Es bilden sich Komplexe AK1AG-AK2 und AG-AK2. Letztere werden im Waschschritt dann weggewaschen (vgl. Schritt 3). Bild C1 zeigt die Reaktion mit enzymmarkiertem AK, der gegen den AK2 gerichtet ist (vgl. Schritt 4). Bild D1 zeigt die Umwandlung des Substrats in Produkt durch das Enzym (vgl. Schritt 5). Kompetitiver ELISA 1. Schritt: Coaten: Auf einer Mikrotiterplatte wird in jede Kavität eine Proteinlösung des zu bestimmenden Proteins mit bekannter Konzentration pipetiert. Somit wird das sogenannte Coating-AG an den Gefäßwänden gebunden. 2. Schritt: Blocken (siehe Sandwich-ELISA). 3. Schritt: Zugabe des zu bestimmenden Proteins (AG) unbekannter Konzentration oder eines Standards sowie Zugabe des gegen das AG gerichteten AK (im Unterschuss) es findet eine Konkurrenzreaktion zwischen dem AG in Lösung und dem gebundenen Coating-AG statt (daher der Name kompetitiv). 4. Schritt: Zugabe eines zweiten AK gegen den ersten AK gerichtet, welcher mit einem Enzym markiert ist. 5. Schritt: Zugabe eines Substrats. 6. Schritt (eventuell): Stoppen der Reaktion. ® A1 B1 C1 Abbildung 3: Sandwich-ELISA: Das Rechteck stellt den Querschnitt einer zylinderförmigen Kavität Abbildung 3: (Tiefe: ~15 mm, Durchmesser: ~5 mm) der Mikrotiterplatte dar. Abbildung 3: 16 … AG; … AK1; … AK2; D1 … mit Enzym markierter AK; S … Substrat; P … Produkt Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 A2 Abbildung 4: kompetitiver EISA Abbildung 4: … Coating-AG; B2 … AG; C2 … AK; Zwischen den Schritten 1–4 erfolgt jeweils ein Waschschritt. Die Versuchsschritte sind in Abbildung 4 veranschaulicht. Bild A2 zeigt die nach dem Coaten gebundenen AG (vgl. Schritt 1). Bild B2 zeigt die Reaktion der AK (im Überschuss) mit den Coating-AG und dem zugegebenen AG. Es findet eine Konkurrenzreaktion statt (vgl. Schritt 3). Bild C2 zeigt die (nach dem Wegwaschen von in Lösung befindlichem AG- und AG-AK-Komplex) Reaktion mit enzymmarkiertem AK, der gegen den ersten AK gerichtet ist (vgl. Schritt 4). Bild D2 zeigt die Umwandlung des Substrats in Produkt durch das Enzym (vgl. Schritt 5). In beiden Fällen erfolgt eine photometrische Messung. Auf einer Platte muss stets eine Standardreihe mitgemessen werden, um eine Standardkurve erstellen zu können. Diese ermöglicht eine Quantifizierung. Standardkurven haben typischerweise einen sigmoiden Verlauf. Die Abbildungen 5 und 6 zeigen die Standardkurven, die mit beiden ELISAs zum Nachweis von Sesam erstellt wurden. PCR oder ELISA? Welche Nachweismethode (PCR, ELISA) verwendet wird, bleibt jedem selbst überlassen. Es gibt Vor- und Nachteile für alle vorgestellten Methoden. Es muss prinStandardkurve eines Sandwich-ELISAs Absorption bei 450 nm, aufgetragen gegen die Proteinkonzentration (Sesamprotein) in ng/ml Abbildung 5: Mit steigender Proteinkonzentration steigt auch das Signal, da mehr AG an die AK1 gebunden wird und somit mehr AK2 sowie enzymmarkierter AK gebunden werden können. Dadurch wird in gleicher Zeit mehr Substrat in Produkt umgewandelt. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 D2 … mit Enzym markierter AK; S … Substrat; P … Produkt Standardkurve eines Sandwich-ELISAs Absorption bei 450 nm, aufgetragen gegen die Proteinkonzentration (Sesamprotein) in ng/ml Abbildung 6 Das Signal nimmt mit steigender Proteinkonzentration ab, da in der Konkurrenzreaktion mehr AG in Lösung vorhanden ist und dadurch weniger AK an Coating-AG gebunden wird. Daher wandeln bei höherer Proteinkonzentration weniger Enzyme Substrat in Produkt um und es kommt in gleicher Zeit zu einem geringeren Signal. zipiell berücksichtigt werden, dass die in Lebensmitteln nachzuweisenden Inhaltsstoffe weder allein auftreten noch roh sein müssen. Daher muss eine entwickelte Nachweismethode stets bezüglich ihrer Spezifität validiert werden. Außerdem muss berücksichtigt werden, ob und wie stark das Lebensmittel verarbeitet wurde, da bei Verarbeitungsprozessen sowohl die DNA als auch die Proteine denaturiert werden könnten und somit ein Nachweis unmöglich gemacht wird. Weiters liefert ein Nachweis eines Inhaltsstoffes zwar eine Bestätigung der Kennzeichnungspflicht, sagt aber nichts über die Allergenität des Lebensmittels aus. Denn dafür müsste eindeutig sichergestellt sein, dass die für die Allergenität verantwortlichen Proteine enthalten und nicht denaturiert sind bzw. ob nicht bei einem Verarbeitungsschritt einige Proteine durch Konformationsänderungen zu allergen wirksamen Komponenten wurden. Aus diesen Gründen ist die Entwicklung und Validierung solcher Nachweismethoden extrem schwierig und die Aussagekraft beschränkt. Literatur: Stef, J., Koppelman, Sue L. Hefele: Detecting allergens in food. CRC Press, 1 edition (2006) Hans-Joachim Müller: PCR-Polymerase-Kettenreaktion. Spektrum Akademischer Verlag, 1. Edition (2001) 17 Cornel Müllhardt: Der Experimentator Molekularbiologie/Genomics. Spektrum Akademischer Verlag, 5. Auflage (2006) Terence A. Brown: Gentechnologie für Einsteiger. Spektrum Akademischer Verlag, 3. Auflage (2002) Eva Untersmayr, Erika Jensen-Jarolim: Mechanism of type I food allergy. Pharmacology & Therapeutics, Volume 112, December 2006; Center of Physiology and Pathophysiology, MedUni Wien (abstract online verfügbar unter www.sciencedirekt.com). http://www.lmsvg.net/component/option,com_docman/task,doc_view/gid,257/ http://www.med4you.at/laborbefunde/lbef_immunglobuline.htm (Stand Juni 2010) http://www.ilo.at/textphp?M_ID=7 (Stand Juni 2010) Kurznachrichten „Wir machen Erkenntnis möglich“ 50 Jahre DESY DESY begeht mit einem Festakt sein 50-jähriges Jubiläum Am 18. Dezember 1959 wurde DESY per Staatsvertrag zwischen der Stadt Hamburg und der Bundesrepublik Deutschland gegründet. Der Gründungsvater und erste Direktor Prof. Willibald Jentschke wollte das aufblühende Forschungsfeld der Teilchenphysik mit einem konkurrenzfähigen Teilchenbeschleuniger mit unter die Lupe nehmen. 1964 ging der erste Beschleuniger, der dem Forschungszentrum seinen Namen gab, in Betrieb: das Deutsche Elektron-Synchrotron. Auf den damals größten Beschleuniger folgten die Speicherringe DORIS 1974, PETRA 1978 und HERA 1990. An all diesen Beschleunigern wurde das Innerste der Materie gründlich erforscht, indem Kollisionen von subatomaren Teilchen in teilweise hausgroßen Detektoren vermessen wurden. Unter anderem wurde so an PETRA das „Gluon“ entdeckt, das Klebeteilchen, das die Kräfte zwischen den Quarks übermittelt und diese Elementarteilchen bildlich gesprochen zusammenhält, und HERA hat die komplizierte Struktur des Protons genauestens aufgelöst. Dieses Wissen ist in die Lehrbücher eingeflossen und hilft folgenden Experimenten wie dem Large Hadron Collider LHC am CERN bei der Analyse der Daten. Von Beginn an erschlossen sich die Forscherinnen und forscher bei DESY aber auch ein zweites Forschungsfeld, das sich mit der Nutzung der Teilchenbeschleuniger eröffnete: die Forschung mit Synchrotronlicht. Dieses spezielle Licht wird von den Teilchen im Beschleuniger ausgestrahlt und macht diese Beschleuniger zu den hellsten Röntgenquellen der Welt. Das Synchrotronlicht der DESY-Beschleuniger DORIS und PETRA III ermöglicht genaueste Einblicke in den Nanokosmos, die mit supraleitenden Linearbeschleunigern ausgestatteten Freie-Elektronen-Laser FLASH und European XFEL, der 2014 in Betrieb geht, werden sogar Filmaufnahmen aus dem Nanokosmos erlauben. Mit diesen Blicken in die Nanowelt kann man die Funktion von Biomolekülen oder Materialien auf atomarer Ebene erforschen – die Voraussetzung für die Entwicklung neuer Medikamente oder moderner Werkstoffe. Bestes Beispiel für den Erfolg auf diesem Gebiet ist der Chemie-Nobelpreis der Forscherin Prof. Ada Yonath, die 18 Jahre lang eine Max-Planck-Arbeitsgruppe bei DESY leitete und hier die Struktur und Fktion des Ribosoms entschlüsselte. Mit einem feierlichen Festakt begeht das Forschungszentrum DESY, Deutschlands größtes Beschleunigerzentrum, heuer sein 50-jähriges Jubiläum. Rund 2.500 Gäste aus aller Welt werden dazu erwartet. Seit seiner Gründung Ende 1959 hat sich DESY zu einer internationalen Kultstätte für Grundlagenforschung entwickelt, das Leitmotiv: „Wir machen Erkenntnis möglich“. Die 50 Jahre Spitzenforschung waren geprägt von bahnbrechenden Entdeckungen in der Forschung mit Photonen und in der Teilchenphysik sowie revolutionären Entwicklungen in der Beschleunigertechnologie. In der Teilchenphysik zählt dazu die Entdeckung des Gluons, des Trägerteilchens einer der vier Grundkräfte der Natur, genauso wie die weltbeste Bestimmung der Struktur des Protons und der Nachweis der elektroschwachen Vereinigung. In der Forschung mit Photonen lieferte DESY herausragende Beiträge zu unserem Verständnis von Atomen, Molekülen und Funktionsmaterialen sowie von biologischen Systemen, die unter anderem zum Chemie-Nobelpreis 2009 für Ada Yonath geführt haben. Und in der Beschleunigerphysik ist die supraleitende TESLA-Technologie, die unter DESY-Federführung entwickelt wurde, die führende Technik für aktuelle Linearbeschleunigerprojekte. Was bei der Gründung als nationales Zentrum für die Teilchenphysik gedacht war, hat sich also gewissermaßen selbst beschleunigt – zu einem der weltweit führenden Zentren in der Strukturforschung. „Heute steht DESY als weltweit anerkannte Größe in seinen drei Forschungsbereichen da“, sagt der Vorsitzende des DESYDirektoriums Helmut Dosch. „Mit PETRA III und FLASH haben wir bei DESY die besten Röntgenquellen zur Untersuchung der Struktur und Funktion der Materie weltweit, und unsere Teilchenphysiker sind eine tragende Säule für die Experimente des LHC. Wir sind starker Partner des Röntgenlasers European XFEL undbauen dessen 2,1 Kilometer langen supraleitenden Elektronenbeschleuniger.“ 18 Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 MATHEMATIK Dr. Norbert Brunner und Mag. Walther Janous Mathematische Geographie mit DERIVE Helmut Brunner Geographisch motivierte Fragen aus dem Erfahrungsschatz der Schüler sind gute Ansatzpunkte zum Nachdenken: Warum geht die Flugroute bei der Urlaubsreise von Europa in die USA zuerst weit nach Norden, manchmal sogar über Grönland? Wenn auf der Erde zwei oder mehr Orte sehr weit voneinander entfernt sind, spielt bei solchen Fragen die Kugelgestalt der Erde eine Rolle. Dieser Beitrag löst solche Fragen auf Schulniveau, also ohne sphärische Trigonometrie, mit Vektorrechnung und Differentialrechnung. Jeder Ort auf der Erde (Kugelradius r) ist eindeutig durch zwei Koordinaten bestimmt, nämlich (Abbildung 1) die geographische Breite (j ) und die geographische Länge (l). Diesen Koordinaten entspricht der Ortvektor r (Vektoren: kursiv-fett gedruckte Kleinbuchstaben) vom Erdmittelpunkt zum Punkt X (x , y , z ) mit den Komponenten x = r × cos(j )× cos(l ), y = r × cos(j )× sin(l ), (1). r × sin(j ), Dabei bewegen sich die Winkel l im Bereich von –180° (W von Greenwich) bis +180° (O von Greenwich) und der Winkel j im Bereich von –90° (S-Pol) bis +90° (N-Pol). Diese „geographischen Kugelkoordinaten“ unterscheiden sich von den „mathematischen Kugelkoordinaten“ (die Länge beginnt mit 0° beim N-Pol), was bei der Verwendung von mathematischen Formelsammlungen berücksichtigt werden muss. z = Abbildung 1. Geographische Kugelkoordinaten. Spezielle Kreise sind die Meridiane (Längenkreise), wo l konstant bleibt, die Breitenkreise, wo j konstant bleibt, und die Großkreise: Ein Großkreis hat als Mittelpunkt den Kugelmittelpunkt 0 und sein Radius ist gleich dem Kugelradius. Meridiane sind Beispiele für Großkreise. Der Äquator (Breitenkreis mit j = 0) ist der einzige Breitenkreis, der ein Großkreis ist. Die Berechnungen erfolgen mit DERIVE oder einem anderen Computeralgebra-System. Da in DERIVE die Winkel im Bogenmaß eingegeben werden, sollte man für die Vektoren das folgende Schema benützen: Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Aufruf des Vektors: Declare, Vektor, Dimension: 3 Eingabe: COS(PI*a/180)*COS(PI*b/180), COS(PI*a/180)*SIN(PI*b/180), SIN(PI*a/180) Mit Manage, Substitute ersetzt man hierauf a durch j und b durch l. Die Berechnung erfolgt schließlich mit Approx. 1. Entfernung zweier Orte Wir suchen die kürzeste Flugbahn zwischen Orten mit gegebenen geographischen Koordinaten, also von A(j 1, l 1 ) nach B (j 2, l 2 ). Man ermittelt sie, indem man Globus einen Faden zwischen A und B spannt. Rechnerisch gilt: Die kürzeste Verbindung zweier Orte auf einer Kugel verläuft entlang des Großkreises durch die beiden Orte. Man ermittelt ihn, indem man die Ebene durch 0, A und B mit der Kugel schneidet. Der kürzeste Abstand, also die Länge des Großkreisbogens zwischen A und B, ist d = a × r , der Winkel a zwischen A, 0 und B in der Großkreisebene, mal dem Kugelradius r. Den Winkel a zwischen A und B berechnet man aus deren Ortvektoren (Länge r) mit dem skalaren Produkt als: a×b = cos (a ). r2 Beispiel. Wir wählen zwei Orte auf demselben Breitenkreis: A: j = 40 °, l = 0 °, B: j = 40 °, l = 120 ° Wir berechnen die kürzeste Entfernung auf dem Großkreis und dann die Entfernung auf dem Breitenkreis. In beiden Fällen genügt es, auf der Einheitskugel zu rechnen (r = 1) und dann das Ergebnis mit dem Erdradius zu multiplizieren. Die Punktkoordinaten auf der Einheitskugel sind nach Formel (1): A(0, 766044 0 0, 642788) und B (-0,383022 0, 663414 0, 642788). Distanz am Großkreis: Da die Richtungsvektoren zu A, B Einheitsvektoren sind, erhält man den Winkel a mit a × b = 0,119763 = cos(a ) und (in DERIVE Notation) a = ACOS(0.119763) = 1,45074 rad. Die Entfernung d = a × r zwischen den Punkten auf der Erde (r = 6.371 km) ist dann d = 9.243 km. Weg entlang des Breitenkreises: Die Weglänge erhält man, indem man den Radius des Breitenkreises, nämlich r × cos(a ), mit der Differenz der Längenwinkel im Bogenmaß (d. h. der Winkel zwischen den Punkten in der Breitenkreisebene) multipliziert. Der Radius des Breitenkreises ist 6.371 × cos(40 × 180 ) = 4.880 km, daher die Weglänge 4.880 × 120 × 180 = 10.222 km. Die Entfernung auf dem Großkreis ist also um 979 km kürzer, als der Weg entlang des Breitenkreises. p p 19 Um die kürzeste Flugbahn praktisch zu bestimmen, verwendet man am besten Karten in der gnomischen Projektion (Abbildung 2). Abbildung 2. Gnomische Projektion durch den Nordpol N. An die Erdkugel wird bei dieser Kartenkonstruktion eine Tangentialebene gelegt. Der Punkt A auf der Erdoberfläche wird mit dem Schnittpunkt A¢ der Geraden durch A und den Erdmittelpunkt 0 mit der Kartenebene identifiziert. Im Sonderfall der gnomischen Projektion auf die Tangentialebene durch den Nordpol N gilt: Wenn A die Koordinaten j und l hat, dann liegt A¢ auf dem Kreis um N mit dem Radius NA¢ = r × cot (j ) unter dem Winkel l zur x-Achse. Bei der gnomischen Projektion erscheinen Großkreise als Geraden: Sie sind der Schnitt der Großkreisebene mit der Kartenebene. Bei der Projektion auf die Tangentialebene durch den Nordpol (Abbildung 3) werden zudem die Breitenkreise als Kreise wiedergegeben. kreisebene E durch A, B ist eindeutig durch die Radiusvektoren a, b gemäß Formel (1) bestimmt, ihre Gleichung lautet: (2). a × x + b × y + c × z = 0 mit a 2 + b 2 + c 2 = 1 Dabei sind a, b, c die Komponenten des Einheitsnormalvektors n. Er ist das Vektorprodukt a × b, dividiert durch die Länge von a × b. Der Großkreis ist die Schnittkurve der Ebene (2) mit der Einheitskugel (3): (3). x2 + y2 +z2 = 1 Gesucht ist der nördlichste Punkt C (x , y , z ) der Flugbahn: Für ihn muss z maximal werden unter den beiden Nebenbedingungen (2) und (3) und der Bedingung, dass z am kürzeren der beiden Großkreisbögen durch A und B liegt. Kandidaten für Extremwerte erhält man mit der Methode der Lagrange-Multiplikatoren (hier L und M). Wir betrachten die Funktion F, F = z + L (a × x + b × y + c × z ) + M (x 2 + y 2 + z 2 - 1), von der alle partiellen Ableitungen gleich Null gesetzt werden. Das liefert die Gleichungen (2), (3) und F x = L × a + 2 × M × x = 0, F y = L × b + 2 × M × y = 0, F z = 1 + L × c + 2 × M × z = 0. DERIVE liefert folgende Lösungen (südlichster und nördlichster Punkt), die mit der Bedingung a 2 + b 2 + c 2 = 1 vereinfacht werden: c c x = ±a × , y = ±b × und z = m 1 - c 2 . z z Zur Überprüfung, ob ein Lösungspunkt auf der Flugbahn liegt, berechnet man l mit (1) und vergleicht mit den Werten l 1 und l 2. Da x = cos(j )× cos(l ) und z = sin(j ) folgt in DERIVE Notation (im Bogenmaß): x ö xö æ ÷ = ACOS ç ± ÷. è j cos cø ( )ø è Falls l nicht zwischen l 1 und l 2 liegt, wird der nördlichste/südlichste Punkt der Flugbahn bei A oder B angenommen. Beispiel. Wir wählen wieder die zwei Orte auf demselben Breitenkreis (auf der Einheitskugel: z = 0,642788): A: j = 40 °, l = 0 °, B: j = 40 °, l = 120 °. Mit dem Einheitsnormalvektor (Vektorprodukt und Normierung) erhalten wir: a = 0,429526, b = 0,743961, und c = -0,511889. Daraus folgt für den nördlichsten Punkt auf der Einheitskugel x =0,255944, y = 0,443309, und z = 0,859052, was in geographischen Koordinaten der Punkt C in der Mitte der Flugbahn ist; C: j = 59,2103 °, l = 60 °. l = Gnomische Projektion x ¢ = r × cot(j) × cos(l), y ¢ = r × cot(j) × sin(l) æ ACOS ç Abbildung 3. Kürzester Weg (Kartenquelle: Wikipedia) 2. Nördlichster Punkt der Flugbahn Auf der Karte in gnomischer Projektion (Abbildung 3) ist der nördlichste Punkt C der Flugbahn der dem Nordpol nächste Punkt auf der Geraden zwischen den Kartenpunkten A¢ und B ¢. Dadurch kann diese Aufgabe mittels ebener Geometrie gelöst werden: In der Karte ist der Punkt C ¢ der Fußpunkt der Normalen auf A¢B ¢, falls er innerhalb der Strecke liegt; sonst ist einer der Randpunkte der nördlichste Punkt. Die Extremwertaufgabe lässt sich auch direkt rechnerisch lösen.1 Es genügt, nur die Einheitskugel (r = 1) zu betrachten. Die von den Vektoren aufgespannte Groß- 20 3. Bemerkung: Parameterdarstellung für Großkreise Diese Rechnungen liefern auch eine Parameterdarstellung für den Großkreis in geographischen Koordinaten. Wir setzen in der Gleichung (2) für x, y, z die Formeln (1) ein und leiten eine Gleichung für l als Funktion von j ab. DERIVE liefert: 1 Vgl. für Tabellenkalkulation H. Brunner: Kürzester Abstand zweier Orte auf der Erdkugel, Wissenschaftliche Nachrichten, September 1995, S. 28. Mit dem Solver Add-In von Excel lässt sich die Aufgabe auch direkt lösen. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 sin(l ) = -b × c × sin(j ) ± a × 2 cos(j ) -c 2 (3). 2 2 (a + b )× cos(j ) Auch aus (3) erhält man (ohne Differentialrechnung) wieder die maximale nördliche Breite: cos(j ) = c. Zu jedem kleinerem j gibt es zwei Parameterwerte l, was darauf beruht, dass ein Großkreis von einem Breitenkreis in zwei Punkten geschnitten wird. In unserem Zahlenbeispiel (A: j = 40 °, l = 0 °, B: j = 40 °, l = 120 °) folgt 0,3796 × sin j ± cos 2 j - 0,2605 sin(l ) = 0, 7394 × cos j 4. Bemerkung: Loxodrome Die einfachste Art der Navigation ist es, immer einem konstanten Kurs zu folgen. Unter dem Kurs versteht man dabei den Winkel a zwischen der Flugbahn und dem aktuellen Meridian (Abbildung 4). Die Bahnkurve ist dann eine Loxodrome. Je kleiner der Abstand zwischen Punkten ist, desto geringer ist dabei die Abweichung von der wegoptimalen Bahnkurve, weswegen in der Seefahrt Bahnen aus Loxodromen-Stücken zusammen gesetzt werden. Abbildung 4. Kursberechnung. Aus Abbildung 4 folgt (mit r Kugelradius) tan(a ) . Ds × cos (a ) = r × Dj und = Dj cos(j ) Wenn der Kurs a konstant ist, liefert das eine Differentialgleichung für die Loxodrome mit der Lösung = Dl (j 2 - j 1 ) æ æj pöö und l = tan(a )× log ç tan ç + ÷ ÷ (4). è2 è cos(a ) 4øø Mit einer geeigneten Kartendarstellung (Seekarten mit der winkeltreuen Mercator-Projektion) erscheint eine Loxodrome als Gerade. s = r × 5. Bemerkung zur Bahngeometrie Die Berechnung der Flugbahn auf der Kugel beruht auf Dreiecksberechnungen. Wie im Fall der Ebene liegen auch auf der Kugel die Punkte B, die einen festen Abstand d von einem gegebenen Punkt A haben, auf ei- Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 nem Kreis (Schnitt eines Kegels mit der Kugel): Wenn a und b ihre Richtungsvektoren sind und r der Kugelra( a × b) dius, dann gilt für das skalare Produkt . Deshalb r2 lassen sich viele klassische Dreiecksaufgaben auf der Kugel in fast gewohnter Weise lösen. Zum Beispiel sei die Grundlinie AB eines Dreiecks auf der Nordhalbkugel gegeben. Gesucht ist ein Punkt X auf der Nordhalbkugel mit vorgegebenen Abständen a, b zu A und B. Diese Aufgabe führt auf ein Gleichungssystem für die Komponenten x, y, z des Ortvektors x von X: æa ö æb ö a × x = cos ç ÷ , b × x = cos ç ÷ , x × x = r 2, èr ø èr ø (5). r = 6.371 km Beispiel. Es seien die Orte A(j = -10 ° , l = 15 ° ) und B (j = 30 ° , l = 80 ° ) gegeben und die Abstände 7.100 km von A und 3.998 km von B vorgegeben. Um j und l für X zu bestimmen, können wir auf der Einheitskugel rechnen, mit A(0, 95125 0,25489 - 0,173648), B (0,15038 0, 852868 0,5) Die Winkel zwischen a und x bzw. b und x sind 7.100 3.998 a = = 1,11442 rad sowie b = = 0,62757 rad. 6.371 6.371 Die Gleichungen lauten dann a × x = 0, 95125 × x + 0,25489 × y - 0.173648 × z = = cos (1,11442 ), b × x = 0, 0,15038 × x + 0, 852868 × y + 0.5 × z = 2 2 2 = cos ( 0, 62757 ), x + y + z = 1 . Die ersten beiden Gleichungen liefern x = 0,356478 × z + 0,219332 × y = = 0, 910425 - 0.649113 × z , daraus die dritte Gleichung die beiden Lösungen z = 0,76604 und z = -0,103713. Die erste Lösung führt zu x = 0,492403 und y = 0,413175. Wegen (1) gilt z = sin(j ), daher j = 50 °, und es gilt y = cos(50 ° )sin(l ), daher l = 40 °. Bei der zweiten Lösung ist X nicht auf der Nord-Halbkugel. Als Anwendung von (5) folgt für die Seitensymmetrale: Die Punkte, die von A und B gleichen Abstand besitzen, sind die Schnittmenge der Ebene a × x = b × x mit der Kugel. Sie ist ein Großkreis. Die Normalprojektion dieser Menge auf die x , y -Ebene bildet dann eine Ellipse. Im Sonderfall, dass A, B auf demselben Breitenkreis liegen, ist diese Kurve der Meridian mit der Länge æ l1 + l2ö l = ç ÷. è 2 ø Anschrift des Verfassers: HR Dr. Helmut Brunner, Kaiser-Franz-Ring 22, 2500 Baden 21 Wie Trurl zwei volle Batterien identifizierte Axel Born und Gerhard J. Woeginger Stanislaw Lem erzählt in seinen „Robotermärchen“ die Abenteuer der Roboterwesen Trurl und Klapauzius. Die beiden sind geniale Konstrukteure, die mit ihren Erfindungen oft die Welt durcheinander bringen. In einer der Geschichten bauen sie eigenhändig einen Dämonen zweiter Ordnung, welcher magisch, thermodynamisch, unsklavisch und statistisch ist und aus einem alten Fass oder auch nur aus einem Niesen Informationen über alles extrahieren und sammeln kann, was war, was ist, was sein kann und was sein wird. Eine andere Geschichte erzählt, wie Trurl ein Femmefatalotron baut, um den Prinzen Bellamor von dessen Liebesqualen zu erlösen, und wie es danach zum Babybombardement kommt. Und einmal baut Trurl eine Maschine, die alles erschaffen kann, was mit dem Anfangsbuchstaben N beginnt (und insbesondere das NICHTS). In einer anderen Geschichte besucht Trurl den Klapauzius, und will sich von diesem zwei Gigabatterien ausleihen. Klapauzius zeigt ihm einen Haufen mit vierzehn Gigabatterien und sagt: „Unter diesen vierzehn Batterien befinden sich sieben leere Batterien und sieben volle. Du kannst Dir zwei volle Batterien heraussuchen, indem Du sie paarweise in den Gigabatterientestapparat steckst. Der Testapparat läuft eine Stunde, und sagt Dir dann ob beide getestete Batterien voll sind.“ Trurl fragt: „Und was passiert, wenn eine getestete Batterie voll und die andere getestete Batterie leer ist?“ Worauf Klapauzius antwortet: „ In diesem Fall läuft der Testapparat eine Stunde lang und liefert danach ein negatives Ergebnis, genau wie in den Fällen, in denen beide Batterien leer sind.“ Trurl: „Aha. Und bist Du Dir auch wirklich sicher, dass da sieben volle Batterien darunter sind? Es wäre nicht das erste Mal, dass du so wichtige Dinge durcheinander bringst!“ Klapauzius: „Nun ja, ich bin mir ziemlich sicher. Und wenn Du gar kein Risiko eingehen willst, dann musst Du halt solange testen, bis der Gigabatterientestapparat positiv reagiert.“ Wie soll Trurl seine Tests organisieren, sodass er auch im schlechtesten Fall nach möglichst wenigen Stunden zwei volle Batterien gefunden hat? Wir wollen Trurls Problem auf 2n Batterien verallgemeinern (n ³ 3), von denen n leer und n voll sind. Wir werden zeigen, dass Trurl auf jeden Fall in n + 3 Stunden zwei gute Gigabatterien identifizieren kann, und dass es keine Vorgehensweise gibt, die ihm eine bessere Zeit garantiert. Eine Strategie für 2n Batterien Trurl teilt die 2n Batterien in n - 3 Gruppen mit je zwei Batterien und in zwei Gruppen mit drei Batterien auf. Da es in den n - 1 Gruppen genau n volle Batterien gibt, muss mindestens eine der Gruppen mindestens zwei volle Batterien enthalten. Trurl testet daher ein- 22 fach jedes mögliche Paar in jeder Gruppe, und findet nach höchstens (n - 3 )× 1 + 2 × 3 = n + 3 Stunden zwei volle Batterien. Genau genommen könnte Trurl sich den allerletzten Test ersparen, da dieser Test auf jeden Fall positiv ausfallen muss, falls Klapauzius sich nicht geirrt hat. Aber dieses Risiko will Trurl nicht eingehen. Ein negatives Resultat für alle möglichen Strategien Wir betrachten eine beliebige Strategie für Trurl, und wir wollen annehmen, dass diese Strategie auf jeden Fall nach höchstens n + 2 Stunden ein gutes Batterienpaar identifizieren kann. Wir werden im folgenden zu dieser Annahme einen Widerspruch herleiten, indem wir die ersten n + 2 Tests samt und sonders negativ ausfallen lassen. Betrachten wir einmal eine beliebige Teilmenge M mit n Batterien. Falls Trurl nach n + 2 Stunden kein einziges Paar in M getestet hat, dann könnten die Batterien in M genau die vollen Batterien sein. Alle bisherigen Tests waren negativ, und Trurl muss mindestens ein weiteres Paar in der Menge M testen, um sich seiner Sache wirklich sicher zu sein. Wir halten daher fest: Trurls Strategie muss nach n + 2 Stunden mindestens ein Paar aus jeder n-elementigen Batterienteilmenge getestet haben (*). Wir formulieren nun ein Optimierungsproblem aus der stetigen Optimierung. Für die i-te Batterie (1 £ i £ 2n) führen wir eine entsprechende reelle Variable x i ein, und fassen diese Variablen als x = (x 1, ¼, x 2n ) zusammen. Unsere Zielfunktion ist f (x ) = å 2n i =1 x i2 + 2 å{ i , j } ÎT x i x j , wobei die Summie- rung in der zweiten Summe über alle Batterienpaare {i , j } ÎT läuft, die Trurl in den ersten n + 2 Stunden getestet hat. Das Optimierungsproblem lautet å unter å { min f (x ) = 2n i =1 x i2 + 2 i , j } ÎT å{ i , j } ÎT xi x j xi = 1 x i ³ 0 für 1 £ i £ 2n. Wir optimieren also eine stetige Funktion f (x ) über einer beschränkten und abgeschlossenen (und daher kompakten) Teilmenge des R 2n . Nach dem Satz von Weierstrass gibt es dann einen Punkt im Definitionsbereich, in dem die Funktion ihr Minimum annimmt. Unter allen diesen minimierenden Punkten suchen wir uns nun einen Punkt (x 1, ¼, x 2n ) heraus, in dem möglichst viele Koordinaten gleich 0 sind. Weiters führen wir die Menge P = {i : x i > 0} aller strikt positiven Koordinaten in diesem Punkt ein. Angenommen, es gibt zwei Batterien a und b mit a , b ÎP und {a , b} ÎT . Dann sei S a die Summe aller Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Werte x k mit {a , k} ÎT und k ¹ b , und es sei Sb die Summe aller Werte x k mit {b , k} ÎT und k ¹ a . Wir nehmen ohne Beschränkung der Allgemeinheit S a £ Sb an. Wenn wir in unserer Optimallösung (x 1, ¼, x 2n ) die Werte x a und x b respektive durch x a + x b und durch 0 ersetzen, so erhalten wir einen anderen zulässigen Punkt im Definitionsbereich. Der alte Beitrag von x a und x b zum Funktionswert f (x ) ist x a2 + x b2 + 2S ax a + 2Sbx b + 2x ax b . Der neue Beitrag x a + x b und 0 zum Funktionswert f (x ) ist (x + x b ) + 0 2 + 2S a (x a + x b ) + 2Sb × 0 + 2(x a + x b )× 0. 2 a Die Differenz zwischen altem und neuen Beitrag ist 2x b (Sb - S a ) ³ 0. Daher hat der neue Punkt keinen schlechteren Funktionswert als der alte Punkt und gleichzeitig mehr 0-Koordinaten als der alte Punkt. Dieser Widerspruch zeigt, dass alle Batterienpaare a , b ÎP auch {a , b} ÏT erfüllen. In anderen Worten: Trurl hat nach den n + 2 ersten Stunden kein einziges Batterienpaar a , b ÎP getestet. Die Aussage (*) impliziert dann p := P £ n - 1. Es sei nun y 1, ¼, y p eine Aufzählung aller Zahlen x i 2n p mit i ÎP . Dann gilt natürlich k = 1 y k = i = 1 x i = 1. Da å å im minimierenden Punkt alle Produkte x i x j mit {i , j } ÎT gleich 0 sind, kann man weiters nachrechnen, dass p 2n (1). f (x ) = x i2 +2 xi x j = y k2 å i =1 å {i , j } ÎT å k =1 Die Ungleichung zwischen dem geometrischen Mittel und dem arithmetischen Mittel besagt 1 1 (2). y k2 ³ yk p p Aus (1) und (2) schließen wir unter Verwendung von p y = 1 und p £ n - 1, dass k =1 k p 1 1 (3). f (x ) = y k2 ³ ³ p n -1 k =1 Schlussendlich wollen wir noch den Funktionswert f (x ) in jenem Punkt betrachten, in dem alle Koordina1 sind. Dieser Funktionswert beträgt ten gleich (2n ) å å å å T 1 , und er ist natürlich eine obere Schranke + (2n ) 2n 2 für den kleinstmöglichen Funktionswert. Mit erhalten wir dann T 1 1 (4). + 2 ³ f (x ) ³ 2n 2n n -1 und schlussendlich 2n 2 (5). T ³ -n > n +2 n -1 Daher muss Trurl mehr als n + 2 Batterienpaare getestet haben. Trurl benötigt mindestens n + 3 Stunden um mit absoluter Sicherheit ein funktionstüchtiges Batterienpaar zu identifizieren. Unser Argument ist abgeschlossen. ( ) Schlussbemerkungen Man kann unsere Fragestellung natürlich auf viele weitere Arten verallgemeinern: Wie soll Trurl zum Beispiel zwei gute Batterien finden, wenn er n volle und 2n leere Gigabatterien vor sich liegen hat? Oder wenn er n volle und 10n leere Gigabatterien vor sich hat? Die beste Strategie teilt die Batterien immer in n - 1 Gruppen von möglichst gleicher Größe ein, und testet dann einfach jedes Batterienpaar in jeder Gruppe. Das entsprechende Optimalitätsargument folgt unserem obigen Beweis. Die mathematischen Grundlagen unserer Analyse stammen aus der Graphentheorie. Der wichtige Satz im Hintergrund ist der sogenannte Satz von Turán (Pál Turán: On an extremal problem in graph theory. Matematikai es Fizikai Lapok 48, 1941, 436–452, in ungarischer Sprache). Unser elegantes Argument mit dem stetigen Optimierungsproblem folgt im wesentlichen den Ideen von Theodore Motzkin und Ernst Strauss (Maxima for graphs and a new proof of a theorem of Turán. Canadian Journal of Mathematics 17, 1965, 533–540). Anschriften der Verfasser: Axel Born: ORG Ursulinen, Leonhardstraße 62, 8010 Graz. Gerhard J. Woeginger: TU Eindhoven, P.O. Box 513, 5600 MB Eindhoven, Niederlande. Ein zensiertes Regressionsmodell für Schlachtdaten von Bioschweinen Florian Bernardi, Norbert Brunner, Georg-Michael Geisberger, Manfred Kühleitner und Christine Leeb 1. Problemstellung Aufzeichnung und Auswertung von Daten gehören mit zu einer erfolgreichen Schweinemast. Was aber tun, wenn Daten nur unvollständig vorhanden sind? Im Rahmen eines vom Landwirtschaftsministeriums geförderten Projekts1 BEP Bioschwein stellte sich die Frage, wie hoch in der Endphase der Mast die mittlere Gewichtszu- Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 nahme eines Schweins pro Tag ist. Dadurch ist es möglich, auf der Basis der zu erwarteten Preisentwicklung zu entscheiden, ob höhere Endgewichte der Schweine im Hinblick auf die längere Mastdauer rentabel sind. 1 BEP Bioschwein, Einführung und Monitoring von „BetriebsEntwicklungs-Plänen (BEP) Tiergesundheit und Wohlbefinden“ in österreichischen Bioschweinebetrieben, Forschungsprojekt Nr. 100188, BMLFUW -LE.1.3.2/0134-II/1/2006. 23 Werden tägliche bzw. wöchentliche Gewichtsaufzeichnungen gemacht, so berechnet man die mittleren Gewichtszunahmen problemlos mit Hilfe der linearen Regression, welche in Excel mittels Trendlinie zugänglich ist. Im vorliegenden Fall wurde das Gewicht eines Schweins aber nur einmal, nämlich zum Schlachtzeitpunkt gemessen. Konkret wurden 18 Ferkel mit einem Durchschnittsgewicht von 45 Kilogramm in einer Bucht eingestallt und unter gleichen Bedingungen gemästet. (Es handelt sich um etwas ältere Ferkel; üblich sind 10 Wochen alte Ferkel mit rund 30 bis 35 kg.) Zum Verkauf gelangten sukzessive die schwersten Tiere. Nur diese wurden zum Verkaufszeitpunkt gewogen.2 Tabelle 1 erfasst das Lebendgewicht dieser Tiere. (Nicht erfasst wurde allerdings das Geschlecht.) Tabelle 1. Verkaufsdaten von Schweinen aus einer Mastbucht. Masttage Anzahl Schlachtschweine 164 4 172 10 186 4 Lebendgewichte (kg) 150, 156, 157, 158 148, 150, 151, 153, 153, 154, 154, 156, 158, 161 143, 146, 147, 150 Die naheliegende Methode zur Bestimmung der mittleren Gewichtszunahme wäre die lineare Regression. Nur, warum sollte man die Gewichte von 18 verschiedenen Tieren, wo von jedem Tier nur ein Gewichtswert, nämlich der zum Verkaufszeitpunkt vorliegt, mittels Trendlinie verbinden? Tatsächlich liefert diese Vorgehensweise keine brauchbare Schätzung für die Gewichtszunahme. Die Regressionslinie fällt und aus ihrer Formel liest man ab: Die Tiere scheinen pro Tag 0,42 kg an Gewicht zu verlieren! Dies liegt jedoch nicht daran, dass die Tiere eine Fastenkur besuchen, sondern ist durch die Systematik der Datenerfassung bedingt: Nur die schwersten Tiere werden in Tabelle 1 berücksichtigt. Sie verschwinden nach dem Verkauf aus dem Datensatz, während die leichteren Tiere zunächst ignoriert werden. Es handelt sich demnach um einen zensierten Datensatz. Die Behandlung solcher Daten erfordert eine eigene Methode. 2. Methode Um eine Regressionslinie für zensierte Daten zu berechnen, wenden wir die Maximum Likelihood (ML) Methode an und nehmen für das mittlere Gewicht m der Schweine zum Zeitpunkt t (in Tagen, 164 £ t £ 186) einen linearen Zuwachs an: (1) m (t ) = a + b × t Die Funktion (1) ist die ML-Schätzung der Gewichte. Die Abweichung der tatsächlichen Gewichte von diesem Schätzwert ist zufällig. Wir nehmen dafür eine Normalverteilung mit der zeitunabhängigen Varianz s an. Die Wachstumsparameter a, b und die Varianz s kennen wir nicht. Wir berechnen sie durch Maximierung der Likelihood. Wenn ein Schwein zum Zeitpunkt t das Gewicht x hat, so beträgt die Likelihood für diese Beobachtung N x , m (t ), s . Hier ist N die Wahrscheinlichkeitsdichte der Normalverteilung. Die Likelihood einer Beobachtungsreihe ist das Produkt der einzelnen Likelihoods. Sie ist eine Funktion der unbekannten Parameter a, b und s. Man sucht jene Parameterwerte, bei denen die ( 24 ) Likelihood der beobachteten Datenreihe maximal ist.3 Das ist die ML-Schätzung. Bei den zensierten Daten der Tabelle 1 ist für jedes Schwein nur das Gewicht zu einem ausgesuchten Zeitpunkt bekannt. Über die Gewichte zu den beiden anderen Zeitpunkten - und deren Likelihood - können wir nur Vermutungen anstellen. Ohne zusätzliche Annahmen würde die ML Methode die klassische Regressionslinie liefern. Wir modifizieren daher den ursprünglichen ML-Ansatz, indem wir die Likelihood der Beobachtungsreihe zum Zeitpunkt t noch mit geeigneten Wahrscheinlichkeiten über die vermuteten Gewichte der nicht beobachteten Schweine multiplizieren. Unsere Annahme beruht darauf, dass die Schweine auch in der Endphase der Mast Gewicht zunehmen. Wir unterscheiden für jedes der 18 Schweine drei Typen A, B, C von Daten: Das gemessene Gewicht zum Verkaufszeitpunkt (A), das vermutete Gewicht vor dem Verkaufszeitpunkt (B) und das hypothetische Gewicht danach (C), wenn das Schwein weiter gemästet worden wäre. Zu A, von einem Schwein, das zum Zeitpunkt t verkauft wird und dessen Gewicht dann x beträgt, berechnen wir die Likelihood in Excel als: =NORMVERT x ; m (t ); s, 1 (2). ( ) Zu B, wenn das Schwein zu einem späteren Zeitpunkt s > t verkauft und gewogen wird, dann wissen wir zum Zeitpunkt t: Das Schwein war erstens sicher nicht schwerer, als das leichteste zum Zeitpunkt t verkaufte Schwein, dessen Gewicht sei min(t ), und es war zweitens sicher nicht schwerer, als zum Zeitpunkt s, wo sein Gewicht x ist. Wir multiplizieren die obige Likelihood mit der Wahrscheinlichkeit dieser Aussage und berechnen diese in Excel als: =NORMVERT MIN min(t ); x ; m (t ); s, 1 (3). ( ( ) ) Zu C, wenn das Schwein bereits zu einem früheren Zeitpunkt f < t mit dem Schlachtgewicht x verkauft wurde, dann wäre es zum Zeitpunkt t bei weiterer Mästung sicher schwerer geworden. Wir multiplizieren die obige Likelihood auch mit der Wahrscheinlichkeit dafür: (4). =1–NORMVERT x ; m (t ); s, 1 ( ) 3. Aufbereitung in Excel Zur Auswertung dieses Modells erstellen wir ein Tabellenblatt mit der Beschriftung von Tabelle 2. In A1:C2 schreiben wir Text für die gesuchten Parameter. In den Bereich A6:B23 tragen wir die Daten von Tabelle 1 ein. Wir sortieren dabei die Tabelle, zuerst nach dem Verkaufszeitpunkt und bei gleichen Verkaufszeitpunkten nach dem Gewicht. In der Spalte C berechnen wir m (t ) nach (1). In C6 steht die Formel =$A$3+$B$3*A6. Wir kopieren diese nach unten bis in C23. In A3:C3 stehen plausible Startwerte für das Wachstumsmodell (1): 2 Bei der Planung der Verkaufszeitpunkte, die aus organisatorischen Gründen mehrere Wochen vorher fixiert werden, kann es sinnvoll sein, auch individuelle Gewichtszunahmen abzuschätzen. So müssen schwere Tiere rechtzeitig verkauft werden, weil ab 130 kg Nutzgewicht (nach Ausschlachtung) ein Preisabschlag erfolgt. 3 Je größer die Likelihood, desto „wahrscheinlicher“ ist die Beobachtung. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 a = 45 kg ist das Durchschnittsgewicht der Ferkel dieses speziellen Datensatzes bei der Einstallung, b = 0,5 kg pro Schwein und Tag liegt an der unteren Grenze der üblichen Gewichtszunahme, s = 5 kg ist die gerundete Standardabweichung der Messdaten (Tabelle 1). Tabelle 2. Beschriftung des Tabellenblatts. A 1 2 3 4 5 A 45,0 B Parameter B 0,5 C 5,00 Tag LG in kg ML-Schätzer m D s t: m (t ): min(t ): In E3:G3 tragen wir die drei Verkaufszeitpunkte 164, 172, 186 ein. In E4:G4 berechnen wir dazu m (t ) nach (1), und in E5:G5 stehen min(t ), d. h. die kleinsten Gewichte zu den jeweiligen Verkaufsterminen. In E5 steht die Zahl 150 (kleinstes Gewicht zum Verkaufstermin 164), in der Zelle F5 die Zahl 148 (kleinstes Gewicht zum Verkauftermin 172) und in der Zelle G5 die Zahl 143 (kleinstes Gewicht zum Verkaufstermin 186). Im Bereich E6:G24 berechnen wir zu den Verkaufszeitpunkten die Likelihoods und Wahrscheinlichkeiten entsprechend unserem Modell. Es empfiehlt sich zur besseren Übersichtlichkeit, die Bereiche E6:E9, F10:F19 und G20:G23 (zu diesen Terminen sind diese Gewichte bekannt) einzufärben. Wir berechnen zuerst die Likelihoods zu den Beobachtungsdaten (A); in E6 schreiben wir die Formel =NORMVERT($B6;E$4;$C$3;0). Anschließend kopieren wir dies in die Bereiche E6:E9, F10:F19 und G20:G23. (Die „$“ sind so gesetzt, dass die Bezüge beim Kopieren korrekt bleiben.) Als nächstes berechnen wir die Wahrscheinlichkeiten zu den vermuteten Schweinegewichten (B); in E10 schreiben wir =NORMVERT(MIN(E$5;$B10);E$4;$C$3;1) und kopieren dies in den Bereich E10:E23 und F20:F23. Abschließend berechnen wir die Wahrscheinlichkeiten der hypothetischen Schweinegewichte (C). In F6 schreiben wir =1–NORMVERT($B6;F$4;$C$3;1). Wir kopieren die Formel in die Bereiche F6:F9 und G6:G19. Zur Berechnung der maximalen Likelihood maximieren wir statt des Produkts die Summe der Logarithmen der Likelihoods. Dazu schreiben wir in H6 die Formel =LN(E6) und kopieren dies in den gesamten Bereich H6:J23. In H4 bilden wir die Summe =SUMME (H6:J23); oberhalb beschriften wir die Zelle als „LogLikelihood“. Zur Maximierung verwenden wir den Solver: die Zielzelle H4 soll maximal werden; die veränderbaren Zellen sind A3:C3. Nach dem Druck auf den Lösen-Button erhalten wir den Maximalwert –85,271 für die LogLikelihood bei den Parameterwerten a = 9,218, b = 0,822 und s = 9,442. Futtermenge erhöht wurde, da der Lieferant für Ballaststoffbeigaben ausgefallen ist. 5. Alternative Modelle Das Problem bei der Verwendung zensierter Daten ist es, dass wir über die nicht beobachteten Daten Vermutungen anstellen müssen. Unterschiedliche Vermutungen liefern alternative Modelle, und je weniger Messdaten im Vergleich zu vermuteten Daten verfügbar sind, umso mehr hängt die Schätzung von den Modellannahmen ab. Wir illustrieren dies, indem wir unser Modell mit den Ergebnissen für alternative Modelle vergleichen.4 Variante 1: Alternatives ML-Modell Als naheliegende Variante betrachten wir die auf (1) gestützte Hypothese, dass die Schweine während eines Zeitraums Dt um b × Dt kg zunehmen. Diese Annahme führt zu folgenden Wahrscheinlichkeiten für die vermuteten bzw. hypothetischen Gewichte: =NORMVERT MIN min(t ); x - b × (s - t ) ; m (t ); s, 1 (3a) und =1-NORMVERT x + b × (t - f ); m (t ); s, 1 (4a). Wenn wir diese Formeln in das Tabellenblatt einsetzen, erhalten wir aus der ML-Schätzung die Aussage: Das Gewicht nimmt während der Mastendphase im Mittel um 0,25 kg pro Tag und Schwein ab. Die Log-Likelihood beträgt –94,011. Da das erste Modell bei gleichen Daten, gleicher Parameterzahl und einfacherer Struktur eine höhere Log-Likelihood hat, verwerfen wir diese Modellvariante.5 Die dominanten Tiere in der Bucht wachsen demnach rascher als die anderen Tiere, die ihrerseits nach der Schlachtung der dominanten Tiere rascher zunehmen. ( ( ( ) ) ) Variante 2: Klassische Regression Wenn wir die Regressionslinie nur durch die gemessenen Verkaufsgewichte legen, erhalten wir einen noch stärkeren täglichen Rückgang von 0,421 kg. Das zugrunde liegende ML-Modell postuliert, dass die Gewichte B und C keinerlei Einschränkungen unterliegen (die Wahrscheinlichkeiten in Formeln 4 und 5 werden gleich 1 gesetzt). Diese Annahme wäre bei der zufälligen Auswahl der verkauften Schweine, unabhängig von ihrem Gewicht, gerechtfertigt. Hier widerspricht das Ergebnis jedoch klar den Erfahrungstatsachen. Aus einem positiven Anstieg der klassischen Regressionslinie lässt sich auch umgekehrt keine qualitative Aussage gewinnen, ob die mittlere Gewichtszunahme größer ist, als bei einem Datensatz mit fallender Regressionslinie.6 4. Ergebnis Das Modell liefert eine geschätzte mittlere Gewichtszunahme von b = 0,822 kg pro Tag und Schwein in der Endphase der Mast. Dieses Resultat ist mit den Erfahrungswerten des Betriebs kompatibel. Diese Zunahme in der Endphase liegt im Mittel über den Zunahmen während der Mast (0,5 bis 0,7 kg/d). Dies kann für den Datensatz begründet werden, weil in der Endphase die Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 4 Eine Übersicht über verschiedene Modellannahmen und Berechnungsmethoden findet man z.B. bei Dempster et al., J. Royal Statistical Soc. B39/1977, S. 1 ff. 5 Mehr zu dieser Überlegung bei Burnham/Anderson: Model Selection and Multimodel Inference, Berlin 2002. 6 Unter den Betriebsdaten gibt es einen Datensatz mit sehr geringer errechneter Gewichtszunahme, wo die Regressionslinie aber ansteigt, weil die Hälfte der Schweine (wegen des langsamen Wachstums) erst am Schluss verkauft wurde. 25 Variante 3: Mastendphase mit Diät Da die Schweine in der Endphase der Mast bei zuviel Futter leicht verfetten, gibt es auch Fütterungsstrategien, welche die Tiere in der Endphase auf Diät setzen. In diesem Fall ist nicht auszuschließen, dass das Gewicht einzelner Tiere abnimmt. (Im Hinblick auf das Erfordernis der artgerechten Haltung, wo Jungschweine wachsen sollen – sie wiegen als erwachsenes Tier ca. 180 bis 250 kg, dient diese Annahme nur der Illustration der theoretischen Flexibilität des Modells.) Auch dies ist mit unserem Tabellenblatt modellierbar: Formel (3b) unten besagt nur: Zum Schlachten werden die fettesten Tiere ausgesucht. Formel (4) wird nicht angewandt (Multiplikation mit 1), weil keine Information über das Wachstum vorhanden ist. =NORMVERT min(t ); m (t ); s, 1 (3b). ( ) 6. Diskussion Je mehr Messdaten verfügbar sind, umso geringer wird die Abhängigkeit der Schätzung vom Modell. Weil wir nur die Verkaufsdaten A erfasst haben, beruhen unsere Modellrechnungen nur zu 1/3 auf Messdaten. Unsere Ergebnisse dienen daher nur der Illustration der Methode. Ein Betrieb kennt (bzw. kann dies ermitteln) zusätzlich zu den Verkaufsdaten auch die Gewichte der noch nicht verkauften Schweine (Daten B), eventuell auch noch zu weiteren Zeitpunkten, hat also eine mehr als doppelt so große Datenbasis. Unvermeidbar ist nur die Zensierung bei den Daten C über die verkauften Schweine. Diese Zensierung hat aber nicht mehr so starke Auswirkungen auf die Schätzgenauigkeit, denn mit ML-Schätzern wird bereits ab 50% gemessenen Daten eine Genauigkeit erzielt, die der klassischen Regression gleichkommt.7 Die Methode der zensierten Regression ist daher für Betriebe von Interesse, die ihre bisherigen Endmast-Analysen mittels klassischer Regression unter Berücksichtigung aller verfügbaren Daten verfeinern wollen. Unvermeidbar wird eine zensierte Regression bei allen Fragestellungen, wo nur Daten über die geschlachteten Tiere zur Verfügung stehen. Wenn zum Beispiel befürchtet wird, dass die Gewichtszunahme bei der Fütterungsstrategie vor allem auf Fettzunahme beruht, wird man analog zu oben Modelle über die Fettmasse entwickeln (mit der Hypothese: „Die verkauften Schweine sind jene mit der höchsten Fettmasse“). Anschriften der Verfasser: Georg-Michael Geisberger, Weilhart 3, 5134 Schwand/Innkreis E-Mail: [email protected] Florian Bernardi und Christine Leeb, Nutztierwissenschaften/NAS Norbert Brunner und Manfred Kühleitner, Mathematik/DIBB BOKU, Gregor Mendel Stasse 33, 1180 Wien E-Mail: [email protected] 7 Dies wurde in Simulationsexperimenten bestätigt von Kuttatharmmakul et al., Analytica Chimica Acta 441/2001, S. 215 ff. Zwei Bergsteiger in den Alpen Axel Born und Gerhard J. Woeginger Die beiden Bergsteiger Alfred und Berta befinden sich auf Höhe des Meeresspiegels auf verschiedenen Seiten eines Bergmassivs; siehe Abbildung 1. Mit ihren primitiven Funkgeräten können die beiden nur dann mit einander kommunizieren, wenn sie auf exakt gleicher Höhe über dem Meeresspiegel sind. Ihr Ziel ist es, in ununterbrochenem Funkkontakt zu bleiben und sich auf einem der Gipfel des Massivs zu treffen. Wie sollen die beiden das anstellen? Eine mögliche Bergtour beginnt zum Beispiel damit, dass Alfred den ganz linken Gipfel besteigt, während Berta gleichzeitig den ganz rechten Gipfel anvisiert. Da die beiden Gipfel gleich hoch sind, können Alfred und Berta dabei problemlos in ununterbrochenem Funk- Abbildung 1: Alfred (A) und Berta (B) auf verschiedenen Seiten des Bergmassivs. 26 Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Abbildung 2: Die 15 kritischen Punkte des Bergmassivs. kontakt bleiben. Danach würde Alfred vielleicht in Richtung des nächsten Tales nach rechts absteigen, und Berta würde vielleicht gleichzeitig nach links absteigen. Aber was passiert, wenn die beiden erst einmal auf 400 m abgestiegen sind? Alfred hat dann das Tal erreicht, und kann von dort nur nach oben weiterklettern. Berta steht mitten auf einer Bergflanke und könnte sowohl nach oben als auch nach unten weiterklettern. Sie muss aber auf jeden Fall umkehren, um den Funkkontakt mit Alfred aufrecht zu erhalten. Mit ein wenig Nachdenken sieht man ein, dass auch Alfred am besten sofort wieder umkehrt. Nun wollen wir das Problem systematisch angehen. Wir zeichnen vier waagrechte Geraden auf Höhe von 0 m, 400 m, 1000 m und 1200 m ein, und bestimmen alle ihre Schnittpunkte mit dem Bergmassiv. Dann nummerieren wir die Schnittpunkte dem Massiv entlang von links nach rechts durch; siehe Abbildung 2. Diese nummerierten Punkte sind für Alfred und Berta die kritischen Punkte, in denen sie unter Umständen die Richtung ändern und umkehren werden. Ein Richtungswechsel in anderen (nicht-kritischen) Punkten wäre sinnlos und reine Zeitverschwendung. Wir interessieren uns also für Klettersituationen, in denen Alfred und Berta in kritischen Punkten sitzen. Wir beschreiben eine derartige Situation durch ein Zahlenpaar (a , b ) mit 1 £ a , b £ 15, wobei Alfred im kritischen Punkt a ist, Berta im kritischen Punkt b, und wobei die Punkte a und b dieselbe Höhe haben. Am Anfang sind die beiden in der Situation (1, 15 ). Hier ist eine Klettertour, die Alfred und Berta am Gipfel 6 zusammenbringt: (1, 15 ) ® (2, 14 ) ® (3, 13 ) ® (2, 12 ) ® (1, 11) ® (2, 10 ) ® (1, 9 ) ® (2, 8 ) ® (3, 7 ) ® (4, 8 ) ® (5, 7 ) ® (6, 6 ). Das Bergmassiv in Abbildung 1 erlaubt also ein Happy-End. Wie sieht es mit anderen Bergmassiven aus? Können Alfred und Berta in jeder möglichen Berglandschaft zu einander finden? Bergmassive über dem Meerespiegel Wir wollen uns zuerst mit dem (realistischen) Fall von Gebirgen beschäftigen, in denen kein einziger Punkt unter dem Meeresspiegel liegt. Alfred und Berta beginnen auf Meereshöhe. Wir werden zeigen, dass sie einander dann immer treffen können. Zuerst zeichnen wir wieder auf Meereshöhe, auf Höhe jeden Tales und auf Höhe jeden Gipfels eine Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 waagrechte Gerade ein. Die kritischen Punkte erhalten wir als Schnittpunkte dieser Geraden mit dem Bergmassiv. Die Höhe eines kritschen Punktes p bezeichnen wir mit H ( p ). Wir interessieren uns für Klettersituationen (a , b ) mit H (a ) = H (b ), in denen Alfred im kritischen Punkt a und Berta im kritischen Punkt b ist. Zwei Situationen (a , b ) und (c, d ) heißen benachbart, falls Alfred und Berta von (a , b ) direkt nach (c, d ) gelangen können, ohne andere kritische Situationen zu durchqueren. Mathematisch formal sind die Situationen (a , b ) und (c, d ) genau unter den folgenden Bedingungen benachbart: • Alfred klettert zu einem zu a benachbarten kritischen Punkt: c = a ± 1 • Berta klettert zu einem zu b benachbarten kritischen Punkt: d = b ± 1 • Um den Funkkontakt aufrecht zu erhalten, müssen Alfred und Berta entweder gleichzeitig nach oben klettern: H (a ) < H (c ) und H (b ) < H (d ). Oder sie müssen beide gleichzeitig nach unten klettern: H (a ) > H (c ) und H (b ) > H (d ). Abbildung 3 zeigt uns die kritischen Situationen für das Bergmassiv aus Abbildung 1. Benachbarte Situationen sind jeweils durch eine Linie mit einander verbunden. Sehen wir uns das Bild einmal ein wenig genauer an: Die Situationen (4, 10 ) und (10, 4 ) sind isolierte Punkte, die nicht vom Startpunkt (1, 15 ) aus erreicht werden können. Die meisten Situationen sind zu genau zwei anderen Situationen benachbart. Einige Situationen sind zu vier anderen benachbart. Die Situationen in den Ecken sind jeweils zu genau einer anderen Situation benachbart. Ganz allgemein gilt folgender Satz: Satz 1. Die vier Ecksituationen sind jeweils zu genau einer Situation benachbart. Alle anderen Situationen sind zu einer geraden Anzahl von Situationen benachbart. Beweis. Wir klassifizieren zunächst die kritischen Punkte in vier Gruppen: (1) Gipfel, (2) Täler, (3) Bergflanken und (4) die Startpunkte von Alfred und Berta. Dann betrachten wir eine beliebige Situation , die natürlich H (a ) = H (b ) erfüllen muss. Angenommen, einer der beiden Punkte, sagen wir Punkt a, ist ein Gipfel. Alfred kann den Punkt a nach links und nach rechts, aber ausschließlich nach unten kletternd verlassen. Falls b ebenfalls ein Gipfel ist, ergibt das vier benachbarte Situationen. Falls b eine Bergflanke ist, so ergibt das zwei benachbarte Situationen. Falls b ein 27 Abbildung 3: Eine graphische Darstellung der kritischen Klettersituationen. Tal ist, gibt es gar keine benachbarten Situationen. Da das Gebirge über dem Meeresspiegel liegt, kann b unmöglich der Startpunkt von Alfred oder Berta sein. Angenommen, einer der beiden Punkte, sagen wir Punkt a, ist ein Tal. Alfred kann diesen Punkt a nach links und nach rechts, aber ausschliesslich nach oben kletternd verlassen. Falls b ebenfalls ein Tal ist, ergibt das vier benachbarte Situationen. Falls b eine Bergflanke ist, so ergibt das zwei benachbarte Situationen. Falls b ein Gipfel ist, gibt es gar keine benachbarten Situationen. Falls b der Startpunkt von Alfred oder Berta ist, so ergibt das zwei benachbarte Situationen. Damit haben wir bereits alle Fälle analysiert, in denen einer von a oder b ein Gipfel oder ein Tal ist. Falls beide Punkte a und b Bergflanken sind, gibt es für (a , b ) genau zwei benachbarte Situationen. Falls beide Punkte a und b Startpunkte von Alfred oder Berta sind, können sich die beiden nur synchron nach oben bewegen; das ergibt genau eine benachbarte Situation. Damit haben wir alle möglichen Fälle behandelt. q.e.d. Wir bezeichnen nun mit N (a , b ) die Anzahl der Nachbarn der Situation (a , b ). Weiters bezeichnen wir mit E die Menge aller jener Situationen, die von der Startsituation aus erreichbar sind. Satz 2. Die Summe aller Werte N (a , b ) mit (a , b ) ÎE ist eine gerade Zahl. Beweis. Wenn zwei Situationen (a , b ) und (c, d ) aus E benachbart sind, dann wird dies sowohl in N (a , b ) als auch in N (c, d ) gezählt. Jedes Nachbarspaar liefert deshalb einen Beitrag von 2 für die Summe. q.e.d. Die Startsituation (linker oberer Eckpunkt) liegt auf jeden Fall in E, und trägt 1 zur betrachteten Summe bei. Da die Gesamtsumme aber gerade ist, muss es noch eine andere Situation in E geben, die einen ungeraden Wert zur Summe beiträgt. Laut unserem ersten Satz 28 kommen dafür aber nur die Situationen in den anderen drei Eckpunkten in Frage. Diese drei Situationen haben (1) Alfred und Berta zusammen in Alfreds Startpunkt; (2) Alfred und Berta zusammen in Bertas Startpunkt; (3) Alfred in Bertas Startpunkt und Berta in Alfreds Startpunkt. In (1) und (2) haben die beiden bereits zusammen gefunden. In (3) haben sie die Plätze gewechselt, und dabei müssen sie sich unterwegs getroffen haben. Es gibt also auf jeden Fall eine erreichbare Situation in E, in der Alfred und Berta zusammenfinden. Allgemeine Bergmassive Wie sieht es für Alfred und Berta nun im allgemeinen Fall aus, wenn das Bergmassiv teilweise auch unter dem Meerespiegel liegen darf? Das Gebirge könnte zum Beispiel aus zehn Hügeln bestehen, die allesamt 100 m hoch sind, und die durch neun Täler von einander getrennt werden, die jeweils 10m unter den Meeresspiegel reichen. Es ist nicht schwierig, Alfred und Berta in diesem speziellen Beispiel zusammen zu bringen. Aber es gibt auch andere (bösartigere) Beispiele, in denen ein Treffen unmöglich wird: Nehmen wir an, dass das Gebirge aus einem 100 m hohen und einem 200 m hohen Hügel besteht, und dass zwischen den beiden Hügeln ein Tal liegt, das bis 10 m unter den Meeresspiegel reicht. Dann ist ein Treffen ausgeschlossen. Der Leser kann zur Übung die neun kritischen Punkte dieses Gebirges bestimmen, und dann daraus alle Situationen ableiten, die von der Startsituation aus erreichbar sind. Anschriften der Verfasser: Axel Born: ORG Ursulinen, Leonhardstrasse 62, 8010 Graz. Gerhard J. Woeginger: TU Eindhoven, P.O. Box 513, 5600 MB Eindhoven, Niederlande. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Zu den Teilsummen der harmonischen Reihe Gerald Kuba Die Divergenz der harmonischen Reihe 1+ + + + + + + + + 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 1 10 + 1 11 + 1 12 + 1 13 +¼ zählt zu den bekanntesten und meistdiskutierten Phänomenen in der Mathematik und bleibt doch irgendwie rätselhaft. Wenn man will, kann man einen Vergleich mit Beethovens späten Streichquartetten anstellen, die zu den meistanalysierten Werken der Musikliteratur zählen und trotzdem wahrlich geheimnisvoll geblieben sind. Betrachtet man die Folge H 1, H 2, H 3, H 4 , ¼ der Teilsummen der harmonischen Reihe, n 1 H n := (n = 1, 2, 3, 4, ¼), k =1 k die naturgemäß eine streng monoton wachsende Folge ist, deren Glieder alle im Intervall 1, ¥ liegen, so lässt sich feststellen: Im Intervall 1, 10 liegen genau 12.367 Folgenglieder, im Intervall 10, 100 liegen bereits exakt å [ [ [ [ [ [ 15.092.688.622.113.788.323.693.563.264.538.101.449.847.130 Folgenglieder, wie John W. Wrench im Jahre 1968 berechnet hat. Ferner liegen (gerundet) 4.057091 × 10 86 Folgenglieder im Intervall 100, 200 und 1.090594 × 10 130 im Intervall 200, 300 und 2.931644 × 10 173 im Intervall 300, 400 und 7.880602 × 10 216 im Intervall 400, 500 . Im doch recht kurzen Intervall 999, 1000 liegen rund 6.991981 × 10 433 Folgenglieder. Anfangs noch locker gestreut, wird die Folge in rasanter Weise immer dichter. Betrachtet man die Menge M = H n n Î N Ç 100, ¥ aller Folgenglieder, die nicht kleiner als 100 sind, so ist diese Menge als diskrete Menge natürlich nicht im streng topologischen Sinne dicht im Intervall 100, ¥ , cum grano salis ist sie aber sozusagen numerisch dicht: Nach der Zählung von Wrench muss zwangsläufig zwischen zwei reellen Zahlen im Intervall 100, ¥ , deren Abstand nicht kleiner als die numerisch vernachlässigbare Größe 10 -15 ist, stets eine Zahl aus der Menge M liegen. Im Gegenzug hat M eine Eigenschaft, die topologisch dichte Teilmengen der Zahlengerade gar nicht haben können: M kann nach der natürlichen Größe ihrer Elemente abgezählt werden. Die numerische Dichte der Menge M lässt sich erheblich steigern und auf die gesamte Zahlengerade ausdehnen, wenn man die Menge D = H n - H m n, m Î N \ {0} aller Differenzen von zwei verschiedenen Teilsummen der harmonischen Reihe betrachtet. Die Menge D, die natürlich genau die Zahlen der Form 1 1 1 ö ± æç + +¼+ ÷ (m, k Î Z, m ³ 2, k ³ 0 ) èm m +1 m +k ø enthält, ist dann offensichtlich wirklich dicht auf der gesamten Zahlengeraden: Für alle reellen Zahlen a, b mit a < b gibt es unendlich viele Zahlen x Î D , sodass a < x < b gilt. Da D naturgemäß nur rationale Zahlen [ [ [ [ [ [ { } [ [ [ [ [ [ { [ [ [ } Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 [ enthält, ist die Frage naheliegend, ob D nicht etwa bereits alle rationalen Zahlen ¹ 0 umfasst. Dies trifft nicht zu, da merkwürdigerweise keine ganze Zahl in der Menge D liegt. Satz 1. Die Menge D enthält keine ganze Zahl. Bevor wir Satz 1 beweisen, wollen wir einen vewandten Satz formulieren, der sich viel kürzer und einfacher als Satz 1 erledigen lässt. Wir betrachten statt der gewöhnlichen harmonischen Reihe die harmonische Primzahlenreihe 1 2 + 13 + 15 + 71 + 111 + 131 + 171 + 191 + 231 + 291 + 311 + 371 +¼ Dieselbe ist bekanntlich ebenfalls divergent, naturgemäß aber wesentlich langsamer als die harmonische Reihe. Ist P1, P2, P3, ¼ die Folge der Teilsummen der harmonischen Primzahlenreihe, dann ist die Menge D := Pn n Î N È Pn - Pm m, n Î N Ù m < n aller Summen der Form 1 1 1 + +¼+ (m, k Î Z, m ³ 1, k ³ 0 ) pm pm + 1 pm + k wo p 1, p 2, p 3, ¼ die wachsende Folge aller Primzahlen ist, natürlich auch dicht, aber aus definitorischen Gründen selbstverständlich nur in R Ç 0, ¥ . Analog zu Satz 1 gilt der { } { } [ [ Satz 2. Die Menge D enthält keine ganze Zahl. Wir beweisen gleich eine wesentlich allgemeinere Aussage, die zugleich eine Möglichkeit, Satz 1 zu beweisen, aufzeigt. Satz 3. Ist p eine Primzahl und sind m 0 , m 1, m 2, ¼, m n ganze Zahlen ¹ 0 dergestalt, dass m 0 durch p teilbar ist, aber die Zahlen m 1, m 2, ¼, m n alle nicht durch p teilbar sind, so ist S = m 0-1 + m 1-1 + m 2-1 + ¼ + m n-1 niemals eine ganze Zahl. Insbesondere gilt stets S ¹ 0. Beweis. Wäre nämlich S eine ganze Zahl, dann hätten wir 1 1 1 1 =S -¼m0 m1 m2 mn und somit 1 M = m 0 m 1 × m 2 ×¼× m n für irgendeine ganze Zahl M. Die daraus folgende Gleichung m 0 × M = m 1 × m 2 ×¼× m n wäre aber unmöglich, weil ihre linke Seite durch die Primzahl p teilbar ist, ihre rechte Seite aber nicht, q. e. d. Aus Satz 3 folgt nicht nur Satz 2, sondern das wesentlich allgemeinere Korollar 1. Für jede endliche Menge P ¹ Æ von 1 Primzahlen ist keine ganze Zahl. p ÎP p Es ist nicht nur Satz 2 bzw. Korollar 1 eine unmittelbare Konsequenz von Satz 3, sondern auch folgendes Korollar, das viele Spezialfälle von Satz 1 erledigt. å 29 Korollar 2. Es sei a ¹ 0 eine ganze Zahl und p eine Primzahl, die a teilt. Ferner seien m, n nichtnegative ganze Zahlen, die kleiner als p sind. Dann ist a +n 1 k k =a-m keine ganze Zahl. Beweis. In der Sequenz {a - m, a - m + 1, ¼, a - 1, a , a + 1, ¼, a + n - 1, a + n} ist a die einzige Zahl, die durch p teilbar ist. Tatsächlich erledigt Korollar 2 nicht nur viele Spezialfälle von Satz 1. Unter Zuhilfenahme des folgenden wohlbekannten tiefen Resultats der analytischen Zahlentheorie ist Satz 1 für hinreichend lange Sequenzen bewiesen. å Proposition 1. Für jede ganze Zahl n > 1 enthält das Intervall n < x < 2n mindestens eine Primzahl. Proposition 1 ist die berühmte Vermutung von Joseph Bertrand aus dem Jahre 1845, die 1850 von Pafnuty Tschebytscheff bewiesen wurde. Im Folgenden formulieren wir ein kleines, aber feines Lemma, das wesentlich auf Proposition 1 beruht und für unsere Zwecke zentral ist. Lemma 1. Für 1 £ a < b ist, falls vorhanden, die größte Primzahl p im Intervall a £ x £ b die einzige ganze Zahl im Intervall, die von p geteilt wird. Beweis. Wenn es so ein p Î a , b gibt, dann kann kein ganzzahliges Vielfaches von p im Intervall a , b liegen. Denn sonst läge ja bereits 2p darin und dann gäbe es nach Proposition 1 aber eine Primzahl im Teilintervall p < x < 2 p im Widerspruch zur Voraussetzung, dass p die größte Primzahl im Intervall a £ x £ b ist. Nun ist es leicht, Satz 1 in folgender Abschwächung zu beweisen: k 1 Für jede positive ganze Zahl m ist die Summe n n =m für kein k ³ 2m ganzzahlig. Beweis. Ist k ³ 2m ungerade, dann ist die ganze Zahl k +1 größer als m und außerdem gibt es eine Primzahl p 2 zwischen k 2+ 1 und k + 1. Diese Primzahl p liegt somit in der Menge {m, m + 1, ¼, k}. Ist k ³ 2m gerade, dann ist die ganze Zahl k2 ³ m und außerdem gibt es eine Primzahl p zwischen k2 und k. Diese Primzahl p liegt somit in der Menge {m, m + 1, ¼, k}: Wir können somit eine Primzahl p in der Menge {m, m + 1, ¼, k} wählen, die die größte Primzahl dieser Menge ist. Wegen Lemma 1 teilt p keine andere Zahl in dieser Menge und daher ist k 1 nach Satz 3 garantiert nicht ganzzahdie Summe n =mn lig. Unabhängig voneinander haben Sylvester im Jahre 1892 und Schur im Jahre 1929 folgende Verallgemeinerung von Proposition 1 bewiesen, mit der man Satz 1 schließlich vollständig erledigen kann. [ ] [ ] å å Proposition 2. Für ganze Zahlen m > k > 0 gibt es immer eine Primzahl p größer als k dergestalt, dass irgendein Vielfaches von p im Intervall m £ x < m + k liegt. Beweis von Satz 1. Zu zeigen ist, dass 1 1 + +¼+ m 1+ k für 1 £ m Î Z fest und 1 £ k Î Z beliem m +1 big nie ganzzahlig ist. Wir können nun gleich k < m annehmen, da wir den Fall k ³ m gerade erledigt haben. 30 Nach Proposition 2 gibt es eine Primzahl p > k und ein n Î Z mit m £ np < m + k . Ergo gilt einerseits (n + 1)p = np + p > np + k ³ m + k , andererseits (n - 1)p = np - p < np - k < m, also (n - 1)p < m £ np < m + k < (n + 1)p . Im Intervall m £ x £ m + k ist somit np die einzige Zahl, die durch die Primzahl p teilbar ist und die gewünschte Nichtganzzahligkeit der obigen Summe folgt aus Satz 3. Da Proposition 1 und 2 sehr tiefe Hilfsmittel sind, wollen wir, um nicht mit Kanonen auf Spatzen zu schießen, noch einen anderen Beweis von Satz 1 geben, der völlig elementar ist. Unser „Kanonen-Beweis“ ist allerdings kein entbehrlicher Luxus, da er uns den Weg weisen wird, eine interessante Verallgemeinerung von Satz 1 zu verifizieren. Wir verwenden zum elementaren Beweis von Satz 1 eine Hilfsüberlegung mit folgender Notation. Jede natürliche Zahl n kann in der Form 2 r ×u mit einer ungeraden Zahl u und 0 £ r Î Z eindeutig dargestellt werden. Wir setzen z (n ) = r . Für ungerades n gilt dann automatisch z (n ) = 0. Ist n 1 ein Teiler von n 2, dann gilt z nn 21 = z (n 2 ) - z (n 1 ). ( ) Lemma 2. In jeder Sequenz aufeinanderfolgender natürlicher Zahlen gibt es genau eine Zahl n, wo z (n ) maximal ist. Beweis. Wir führen den Beweis mit Induktion nach der Anzahl k der Zahlen in einer beliebig vorgegebenen Sequenz. Für k = 1 und k = 2 ist die Behauptung offensichtlich richtig. Für k ³ 3 sei angenommen, dass in jeder Sequenz von weniger als k aufeinanderfolgenden natürlichen Zahlen genau eine Zahl n auftritt, wo z (n ) maximal ist. Ist nun m + 1, m + 2, m + 3, …, m + k irgendeine Sequenz, dann streichen wir alle ungeraden Zahlen weg, halbieren die verbleibenden Zahlen und bekommen schließlich eine Sequenz von weniger als k aufeinanderfolgenden natürlichen Zahlen. Dann gibt es ein ausgezeichnetes n in der neuen Sequenz mit z (n ) maximal. Zwangsläufig ist dann 2n das einzige Element der alten Ausgangssequenz, dessen Wert z (×) gleich z (2n ) = z (n ) + 1 und somit maximal ist, q. e .d. Mit Lemma 2 ist ein elementarer Beweis von Satz 1 nun schnell geführt. Ausgehend von S = m1 + m1+ 1 +¼+ m 1+ k sei n Î{m, m + 1, ¼, m + k} so gewählt, dass z (n ) = s > 0 maximal ist. Mit dem kleinsten gemeinsamen Vielfachen M der Zahlen m, m + 1, ¼, m + k multiplizieren wir die Summe und erhalten MS als Summe ganzer Zahlen: M × S = Mm + mM+ 1 +¼+ mM+ k . Nun haben wir aber ( ) z (M ) = s und z ( mM+ l ) > 0 für m + l ¹ n sowie z ( Mn ) = 0. Daher sind alle Summanden gerade, ausgeM nommen dem ungeraden Posten . Somit ist MS eine n ungerade Zahl. Wegen z (M ) > 0 ist aber M eine gerade Zahl. Daher kann S unmöglich eine ganze Zahl sein, q. e. d. Gibt es neben den ganzen Zahlen noch weitere positive rationale Zahlen, die in der Menge D bzw. D nicht auftreten? Dazu betrachten wir die Menge A aller positiven rationalen Zahlen, deren Dezimalbruchentwicklung nach endlich vielen Schritten abbricht. Wir haben 9 also z. B. 12 , 203 , 327 Î A und 13 , 14 , 227 Ï A. Allgemein liegt Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 p eine positive rationale Zahl in gekürzter Darstellung q natürlich genau dann in A, wenn q = 2 a5 ß mit ganzen Exponenten a, b ³ 0 gilt. Wie schauen die Mengen D Ç A und D Ç A aus? Zunächst einmal kann man sofort feststellen, dass H 1 = 1 49 und H 2 = 32 und H 6 = 20 sowie P1 = 12 in A liegen. Dies sind auch die einzigen Beispiele abbrechender Dezimalzahlen bei den Folgen H n bzw. Pn : Satz 4. Für alle n > 1 gilt Pn Ï A. Satz 5. Für n Î N gilt H n Î A genau dann, wenn n Î{1, 2, 6} gilt. Insbesondere sind die Mengen D Ç A und D Ç A 19 beide nicht leer, da einerseits H 6 - H 2 = 20 und 29 1 1 H 6 - H 1 = 20 in D Ç A liegen, andererseits 2 , 5 ÎD gilt. Trivialerweise ist D Ç A sogar eine unendliche Menge, da natürlich auch 12 , 41 , 15 , 81 , 101 , 161 , 201 , 251 , 321 , 401 , 501 usw. in D Ç A liegen. Zum Beweis der beiden Sätze formulieren wir folgende Verallgemeinerung von Satz 3. Satz 6. Ist p ¹ 5 eine ungerade Primzahl und sind m 0 , m 1, m 2, ¼, m n ganze Zahlen ¹ 0 dergestalt, dass m 0 durch p teilbar ist, aber die Zahlen m 1, m 2, ¼, m n alle nicht durch p teilbar sind, so ist die Dezimalbruchdarstellung der rationalen Zahl S = m 0-1 + m 1-1 + m 2-1 +¼+ m n-1 niemals eine abbrechende. Der Beweis läuft analog wie bei Satz 3: N Aus S = a b mit N , a, b Î Z und a, b ³ 0 folgt 2 5 1 M = m 0 2 a5 b × m 1 × m 2 ×¼× m n für passendes M Î Z, was die unmögliche Gleichung m 0 × M = 2 a5 b × m 1 × m 2 ×¼× m n impliziert. Außerdem kann Satz 6 auch als direkte Folgerung von Satz 3 angesehen werden. (Man ersetze m 1, ¼, m n in Satz 3 durch r 1, ¼, r N + n mit ri = -2 a5 b (1 £ i £ N ) und verwende nur, dass S in Satz 3 ungleich 0 sein muss!) Als unmittelbare Folgerung von Satz 6 bekommt man nicht nur Satz 4, sondern den viel allgemeineren ( ) Satz 7. Sind q 1, q 2, ¼, q n (n ³ 2 ) paarweise verschiedene ungerade Primzahlen und sind k 1, k 2, ¼, k n beliebige positive ganze Zahlen, dann hat die Zahl q 1- k 1 + q 2- k 2 +¼+ q n- k n keine abbrechende Dezimalbruchentwicklung. Korollar 3. Es gilt D Ç A = { , }. 1 2 1 5 Der folgenden Satz impliziert sofort Satz 5 sowie auch das anschließende Korollar. Satz 8. Für jede ganze Zahl m > 1 hat die rationale k 1 Zahl sicher keine abbrechende Dezimalbruchentn n =m wicklung, wenn die Summe mindestens zwei Summanden hat und (m, k ) ¹ (2, 6 ) und (m, k ) ¹ (3, 6 ) vorausgesetzt wird. å Korollar 4. Es gilt ì 19 29 ü D Ç A = í , ý È 2 - r5 - s 0 £ r , s Î Z \ {} 1. î 20 20 þ Beweis von Satz 8. Im Falle k ³ m + 5 bekommt man die Behauptung via Lemma 1 und Proposition 1 bzw. 2 mit Hilfe von Satz 6 genauso, wie wir den ersten Beweis { } Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 von Satz 1 mit Hilfe von Satz 3 geführt haben, vorausgesetzt, dass m ³ 5 gilt. Im Falle m £ 4 und k ³ 10 verfährt man genauso, wobei man die Primzahl p Ï{2, 5} zur Anwendung von Satz 6 via Proposition 1 im Bereich k £ x £ k wählt. Im Falle m £ 4 und m + 5 £ k < 10 kann 2 man zur Anwendung von Satz 6 offensichtlich immer p = 7 benützen. Den Fall m < k £ m + 4 zerlegen wir in Teilfälle. Den Fall k = m + 1 erledigt auch Satz 6, da eine der beiden Zahlen m, m + 1 einen Primteiler p Ï{2, 5} haben muss, kann es doch gar nicht sein, dass die Zahlen m und m + 1 beide von der Form 2 a5 b sind. Der Fall k = m + 2 ist mit Satz 6 auch sofort erledigt, da genau eine der drei Zahlen m, m + 1, m + 2 durch 3 teilbar sein muss. Um die verbleibenden Fälle k = m + 3 bzw. k = m + 4 zu erledigen, wo die Summe genau vier bzw. fünf Summanden hat, betrachten wir die Menge B := 2 a3 b 5 g 0 £ a, b, g Î Z = { } = {1, 2, 3, 4, 5, 6, 8, 9, 10, 12, 15, 16, 18, 20, 24, 25, 27, 30, 32, 36, 40, 45, 48, 50,¼} und stellen fest, dass offensichtlich {m, m + 1, m + 2, m + 3} \B für beliebige ganze m ³ 4 nie leer ist. Somit ist für m ³ 4 sicher eine der vier Zahlen m, m + 1, m + 2, m + 3 durch eine Primzahl p ³ 7 teilbar, wobei dann automatisch die anderen drei Zahlen nicht durch p teilbar sein können. A fortiori ist daher für m ³ 3 auch sicher eine der fünf Zahlen m, m + 1, m + 2, m + 3, m + 4 durch eine Primzahl p ³ 7 teilbar, wobei dann automatisch die anderen vier Zahlen nicht durch p teilbar sein können. In beiden Fällen kann man somit Satz 6 direkt anwenden. Damit ist der Beweis von Satz 1 abgeschlossen, denn die einzig nichtberücksichtigen Fälle sind die ausgeschlossenen Fälle (m, k ) = (2, 6 ) und (m, k ) = (3, 6 ), wo die Summen “H 6 - 1 und H 6 - H 2 sofort erkennbar in A liegen. Eine spezielle Folgerung von Satz 8 lautet: Für 1 £ m, m +k 1 k Î Z ist die Summe å niemals eine Zahl der Form n =mn 10 - r (0 < r Î Z ). Ist es möglich, dass diese Summe der reziproke Wert irgendeiner ganzen Zahl sein kann? Nun, diese interessante Frage können wir wenigstens weitestgehend folgendermaßen beantworten. m +k 1 Satz 9. Für 1 £ m, k Î Z ist die Summe å niemals n =mn eine Zahl der Form N1 mit N Î N, falls k £ 5 oder k ³ m8 vorausgesetzt wird. Ferner gibt es zu jedem k ³ 1 eine Schranke M ³ 1 , sodass die Summe ¹ N1 für alle N Î N und alle m ³ M ist. Beweis. Der Fall k = 1 ist schnell erledigt: Mit S 1 = m1 + m1+ 1 haben wir m2+ 1 < S 1 < m2 . Nun sei N = S11 . Dann haben wir m2 < N < m2 + 12 und sehen, dass N keine ganze Zahl sein kann. Den Fall k = 2 erledigt man folgendermaßen: Es sei S 2 = m1 + m1+ 1 + m1+ 2 = N1 . Da von den drei Zahlen 1 , 1 , 1 die mittlere näher bei der kleinsten als bei m +2 m +1 m der größten liegt, muss S 2 > m3+ 1 gelten. Trivialerweise gilt S 2 < m3 . Somit haben wir m3 < N < m3 + 13 und daher kann N keine ganze Zahl sein. Auf analoge Weise kann man die Fälle k = 3, 4, 5 erledigen, da 4 < m1 + m1+ 1 + m1+ 2 + m1+ 3 < m4+ 1 für m ³ 2 und m +2 31 5 m +2 6 m +3 < < 1 m 1 m + m1+ 1 + m1+ 2 + m1+ 3 + m 1+ 4 < m 5+ 1 für m ³ 13 und + m1+ 1 + m1+ 2 + m1+ 3 + m 1+ 4 + m 1+ 5 < m6+ 2 für m ³ 4 gilt, wie man mit elektronischer Unterstützung leicht verifizieren kann. Nach einer zügigen Überprüfung der restlichen Fälle (m, k ) = (1, 3 ) und (m, k ) = (n, 4 ) (n £ 12 ) und (m, k ) = (n, 5 ) (n £ 3 ) durch Berechnung der entsprechenden Summen erkennen wir somit, dass Satz 9 für k £ 5 richtig ist. Um gleich auch die letzte Aussage zu verifizieren, k 1 setzen wir S k (x ) := für festes k Î N und varian =0 x + n m +k 1 für alle ganbles x Î R , sodass dann also S k (m ) = n n =m zen m ³ 1 gilt. Im Lichte der vorigen überlegungen sind wir durch, wenn wir für festes k Î N die Abschätzung k +1 < S k (x ) < xk ++ 1r für irgendein r Î Z Ç 0, k und x +r +1 hinreichend große x Î R bestätigen können. Dazu betrachten wir für r = 0, 1, 2, ¼, k die reellen Funktionen g r (x ) = xk ++ 1r und stellen fest, dass offensichtlich einer- å å [ [ seits lim S k (x ) x ®¥ g r ( x ) = 1 für alle r gilt, andererseits für x ³ 1 stets g 0 (x ) > g 1(x ) > g 2(x ) >¼> g k (x ) gilt. Ferner müssen die Funktionen x a hr (x ) := S k (x ) g r (x ) als rationale Funktionen für alle r schließlich monoton sein. Es gibt somit sicher eine Schranke M, sodass alle Funktionen hr (x ) auf dem Intervall M £ x < ¥ streng monoton sind und mit x ® ¥ gegen 1 streben. Das kann aber nur so geschehen, dass hr (x ) für jedes r auf dem Intervall M £ x < ¥ entweder dauernd größer oder dauernd kleiner als 1 ist. Da natürlich stets h0 (x ) < h1(x ) < h2(x ) <¼< hk (x ) und offensichtlich h0 (x ) < 1 < hk (x ) gilt, muss es zwangsläufig genau ein r Î Z Ç 0, k geben, sodass hr (x ) < 1 < hr + 1(x ) und somit wunschgemäß g r + 1(x ) < S k (x ) < g r (x ) für alle M £ x < ¥ gilt. Um schließlich die Unmöglichkeit von S k (m ) = N1 für beliebiges m und k ³ m8 zu bestätigen, beachte man, dass S k (m ) = N1 automatisch N < m impliziert. Im Lichte von Lemma 1 und Satz 3 genügt es, eine Primzahl im Intervall m £ x £ m + k vorzufinden. Im Falle k ³ m garantiert das Prop. 1, man wählt p im Bereich 1 m + k ) < x £ m + k . Im Jahre 1932 hat R. Breusch 2( Prop. 1 verschärft: Für n > 32 liegt sogar im Intervall 9 n < x < 8 n stets eine Primzahl. Im Falle k ³ m8 können wir daher mit einer garantiert vorhandenen Primzahl im Bereich 89 (m + k ) £ x £ m + k Satz 3 anwenden, sofern m + k > 36 ist. Der letztlich noch nicht behandelte Fall 5 £ k < m, m + k £ 36 ist leicht erledigt, da im Bereich m £ x £ m + 5 für 5 < m £ 31 immer eine Primzahl liegt. Bezieht man die Frage, die Satz 9 weitestgehend beantwortet, lediglich auf die harmonische Primzahlenreihe, dann ist eine vollständige Beantwortung derselben im Lichte von Satz 3 trivial: Jede Summe der reziproken Werte von mindestens zwei paarweise verschiedenen Primzahlen ist ¹ N1 für alle N Î N. Ferner ist es via Satz 3 auch ganz leicht nachzuweisen, dass nicht nur die definitorische Darstellung der Zahlen in der Menge D eindeutig ist, sondern sogar folgender Satz gilt: [ [ Satz 10. Sind L und R zwei endliche Mengen, die nur 32 Primzahlen enthalten, dann gilt å p =å p 1 p ÎL 1 nur p ÎR dann, wenn L und R identisch sind. Die Frage ist naheliegend, ob die definitorische Darstellung der Zahlen in der Menge D ebenfalls eindeutig ist: Ist es ausgeschlossen, dass für verschiedene Mengen L = a , b Ç N und R = c, d Ç N die beiden Ab1 1 schnittssummen und identisch sein können? n ÎL n n ÎR n Diese Frage ist auch eine natürliche Verallgemeinerung der Satz 9 zugrundeliegenden Frage, geht es dort doch um den Spezialfall, dass eine der beiden Mengen ein-elementig ist. Die neue Frage wird bereits weitgehend durch den folgenden Satz beantwortet, der sich sofort aus Lemma 1 und Satz 3 ergibt. [ ] [ ] å å [ ] [ ] Satz 11. Es seien L = a , b Ç N und R = c, d Ç N nichtleere Mengen mit a , b , c, d Î N und b < c. Falls die 1 1 . Menge R eine Primzahl enthält, so gilt ¹ n ÎL n n ÎR n Bemerkung. Die Voraussetzung b < c vermeidet lästige überlappungen der Summationsbereiche L und R und ist somit keine Einschränkung der Allgemeinheit. (Die Fälle R Ì L oder L Ì R sind trivial und uninteressant, ansonsten genügt es natürlich, statt links über L und rechts über R, links über L \ R und rechts über R \ L zu summieren.) Ferner sind die beiden Summen auch ohne die Primzahlenvoraussetzung stets verschieden, wenn b - a ³ d - c vorausgesetzt wird, da wegen b < c immer alle Posten rechts kleiner als alle Posten links sind. Ansonsten sind die beiden Summen wegen des Primzahlenarguments sicher dann verschieden, wenn c £ 12 d (Lemma 1) oder 32 < c £ 89 d (Verschärfung von Breusch) oder å 117 < c £ 13 14 å d oder 2010761 < c £ 5000 d vorausgesetzt wird. 5003 Die letzten beiden Voraussetzungen beruhen auf einem Resultat von Rohrbach und Weis aus dem Jahre 1964, nach dem für ganzes n ³ 118 im Intervall n < x £ 14 n stets eine Primzahl liegt, und auf einem 13 Resultat von Harborth und Kemnitz aus dem Jahre 1981, nach dem für ganzes n ³ 2010762 im Intervall n < x £ 1.00006n stets eine Primzahl liegt. Eine wichtige Konsequenz aus Satz 11 ist, dass alle Zahlen H n - 1 in der Menge D als Abschnittssummen der harmonischen Reihe eindeutig darstellbar sind. Satz 12. Für jedes ganze b ³ 2 ist die Zahl H b - 1 = 12 + 13 + 41 +¼+ b1 verschieden von allen Summ +k 1 mit m ³ 3. men n =mn Beweis. Den Fall b = 2 haben wir mit Korollar 4 bereits erledigt, sodass wir gleich b ³ 3 voraussetzen könm +k 1 nen. Angenommen, es gilt H b - 1 = mit m ³ 3. Da n n =m man im Falle m £ b die überlappenden Summationsbereiche stets entfernen kann, dürfen wir gleich auch annehmen. Insbesondere haben wir m >b H b - 1 ³ H 3 - 1 = 65 und m ³ 4, sodass wegen 1 + 15 + 61 + 71 < 65 automatisch k ³ 4 gelten muss, hat 4 r +k 1 s +k 1 für r > s . Ferner ist im Lichman doch stets < n =r n n =s n å å å å Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 te von Satz 11 und Proposition 1 einerseits k ³ m ausgeschlossen, andererseits darf im Intervall m £ x £ m + k keine Primzahl liegen. Wegen k ³ 4 erzwingt dies bereits m ³ 24. Wegen 241 + 251 +¼+ 521 + 531 < 65 muss wiederum k ³ 30 gelten. Da nun aber die Intervalle m £ x £ m + 30 für m £ 1000 immer Primzahlen enthalten, wie man einer kleinen Primzahlentabelle entnehmen kann, gilt zwangsläufig m ³ 1000. Ein einfacher Flächeninhaltsvergleich liefert für m ³ 1000 und k ³ 1 die Abschätzung m +k m +k m +k 1 1 1 1 1 dx m +k ö = + < + £ + ln æç ÷ è 1000 m n =m +1 n m x m ø n =mn m . (m +k ) 1 und somit Daher haben wir ln m > 65 - 1000 å å ò ( (m +k ) ) > 2, also k > m. Letzteres hatten wir aber bereits m ausgeschlossen, q. e. d. Bemerkung. Mit der sehr scharfen Abschätzung N 1 1 1 1 < - log æç N + ö÷ - g < (N ³ 2 ) 2 è 2ø 24 N 2 24(N + 1) n =1 n å von de Temple aus dem Jahre 1993, wobei g = 0.5772156649¼ die Eulersche Konstante ist, kann man viele Varianten von Satz 12 beweisen, indem man diese Abschätzung anstelle unserer groben Integralabschätzung geschickt einsetzt. So folgt aus der Abschätzung von de Temple, dass für 2 £ a < b < c < d nur b d 1 1 dann gelten kann, wenn = n =a n n =c n 0 < ln(b + 12 ) - ln(a - 12 ) - ln(d + 12 ) - ln(c - 12 ) < ( å å ) ( ) < (a - 1) gilt. Hat man nun etwa -2 ln(b + 12 ) - ln(a - 12 ) ³ 121 (a - 1) + ln 2 vorausgesetzt, um z. B. die Eindeutigkeit der Abschnittssummendarstellung aller Zahlen H b - H 2(b ³ 5 ) zu verifizieren, so b d 1 1 bereits zwingend, denn die hypotheist ¹ n n n =a n =c tisch angenommene Gleichheit der Summen impliziertüber die Ungleichung sofort (d + 12 ) > 2, also ln(d + 12 ) - ln(c - 12 ) > ln 2 und somit (c - 12 ) d ³ 2c - 1, sodass man (Ironie der Geschichte!) mit Proposition 1 und Satz 11 die Gleichheit der Summen sofort wieder ausschließen kann. Dem aufmerksamen Leser dürfte nicht entgangen sein, dass wir einen wesentlichen Schritt im Beweis von Satz 8 nicht ordentlich erledigt haben, was wir nun nachholen wollen. 1 12 å -2 å { } Lemma 3. Es sei B := 2 a3 b 5 g 0 £ a, b, g Î Z . Dann gilt für ganzes m ³ 4 stets {m, m + 1, m + 2, m + 3} \B ¹ Æ. Beweis. Falls m ÏB gilt, ist nichts zu zeigen. Falls m = 2 a3 b 5 g mit 0 < a, b, g Î Z gilt, ist die Behauptung richtig, da dann m + 1 sicher nicht durch 2 oder 3 oder 5 teilbar ist und somit m + 1 sicher nicht in B liegt. Es genügt daher folgende sechs Fälle durchzuspielen, wobei r , s stets beliebige positive ganze Exponenten seien. (1) m = 2 r3 s ; (2) m = 3 r5 s ; (3) m = 2 r5 s ; (4) m = 2 r ; (5) m = 3 r ; (6) m = 5 r . Fall (2) und (3) sind sofort erledigt. Falls (2) gilt, kann m + 2 weder durch 3 noch durch 5 teilbar sein und überdies ist m + 2 ungerade. Somit liegt m + 2 nicht in B. Falls Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 m + 1, m + 2 ÎB und (3) gilt, muss m + 1 = 3 t gelten, da m + 1 weder gerade noch durch 5 teilbar ist. Ferner ist m + 2 weder durch 3 noch durch 5 teilbar und somit muss m + 2 = 2 t gelten. Zwangsläufig ist dann m + 3 ungerade und nicht durch 3 oder 5 teilbar, sodass m + 3 nicht in B liegt. Nun sei (1) vorausgesetzt und gleich indirekt {m, m + 1, m + 2, m + 3} Ì B angenommen. Dann muss jeweils aus Teilbarkeitsgründen m + 1 = 5 t und somit m + 2 = 2u und somit m + 3 = 3v gelten. Dabei gilt natürlich u > r und v > s . Folglich haben wir 2 = 2u - 2 r3 s = 2 r 2u - r - 3 s und somit r = 1 sowie ( = 3 (3 v -s ) - 2 ) und somit s = 1. Dann ha- 3 = 3 -2 3 ben wir aber m = 6 im Widerspruch zu m + 1 ÎB . Angenommen, es gilt (4) und {m, m + 1, m + 2} Ì B . Dann haben wir m + 1 = 3 s 5 t mit s + t > 0. Den Fall s , t > 0 können wir gleich abhaken, da dann m + 2 = 2u gilt und somit die Bedingung (4) mit der Bedingung m ³ 4 unverträglich ist. Im Falle m + 1 = 3 s muss m + 2 = 2u 5v (mit u, v > 0) gelten, was sofort m + 3 ÏB nach sich zieht. Im Falle m + 1 = 5 t muss m + 2 = 2u 3v (mit u, v > 0) gelten, was sofort m + 3 ÏB nach sich zieht. Angenommen, es gilt (5) und {m, m + 1, m + 2, m + 3} Ì B . Dann haben wir m + 1 = 2 s 5 t mit s + t > 0. Den Fall s , t > 0 können wir wieder gleich abhaken, da dann m + 2 im Widerspruch zu m + 2 ÎB nicht durch 2 oder 3 oder 5 teilbar ist. Auch kann man den Fall s = 0 vergessen, da m + 1 gerade ist. Im verbleibenden Falle m + 1 = 2 s muss m + 2 = 5u gelten, sodass zwangsläufig m + 3 = 2v 3w mit v , w > 0 gilt. Natürlich muss dabei nun aber s ³ v und r ³ w gelten. Dann haben wir 2 = 2v 3w - 2 s = 2v 3w - 2 s -v und somit v r s s r ( ( r -w ) ) und somitw = 1 v = 1sowie 3 = 2 3 - 3 = 3 2 - 3 gelten. Dann haben wir aber m + 3 = 6 und somit nicht m ³ 4. Angenommen, es gilt (6) und {m, m + 1, m + 2, m + 3} Ì B . Dann haben wir m + 1 = 2 s 3 t mit t ³ 0 und (da m ungerade ist) s > 0. Da m + 2 nicht durch 2 oder 5 teilbar ist, muss m + 2 = 3u gelten, was sofort t = 0 erzwingt. Es gibt für m + 3 daher keine andere Möglichkeit als m + 3 = 2v . Wegen m + 1 = 2 s bekommen wir somit s = 1 und v = 2, also m + 1 = 2 und somit nicht m ³ 4. Damit ist Lemma 2 vollständig und insbesondere Satz 8 lückenlos bewiesen. v w r w v Adresse des Verfassers: Ao. Univ.-Prof. Mag. Dr. Gerald Kuba, Institut für Mathematik, DIBB, Universität für Bodenkultur, 1180 Wien 33 Das perfekte Wahlsystem Axel Born und Gerhard J. Woeginger Unser Kegelverein wird in diesem Jahr einen neuen Präsidenten wählen, und dazu stehen drei hervorragende Kandidaten zur Verfügung. Der Vereinssekretär möchte die Wahl mit Hilfe eines Computerprogrammes abwickeln, das von einer amerikanischen Firma mit Sitz in Florida angepriesen wird. Der Sekretär erklärte uns dazu begeistert: „Die Software scheint punktgenau auf unsere Situation zugeschnitten zu sein, und zwar auf drei Kandidaten und neunundneunzig Wähler. Jeder Wähler erhält von uns eine ID-Nummer und gibt damit seinen Kandidaten in den Computer ein. Das Programm bestimmt daraus den Gewinner. Keine langwierigen Wahlgänge, keine Stichwahlen, keinerlei Zeitverschwendung! Und das alles zu einem Preis, den man zwar nicht billig, aber auch nicht wirklich überteuert nennen könnte!“ Professor Ambrosius war nicht davon beeindruckt: „Für so etwas braucht man doch keinen Computer! Dazu genügt auch ein ganz normaler Spielwürfel. Es wird einmal gewürfelt. Der erste Kandidat gewinnt bei 1 und 2, der zweite gewinnt bei 3 und 4, und der dritte gewinnt bei 5 und 6. Und im Gegensatz zur Software aus Florida würde uns der Würfel nicht viel Geld kosten!“ Aber der Sekretär liess das nicht gelten: „Ja, ja, wenn echte Demokratie doch nur so einfach wäre! Das Computerprogramm kann natürlich viel mehr als so ein primitiver Würfel. Die Vorteile werden auf den Webseiten der Firma genau erklärt.“ Und tatsächlich, auf den Webseiten wurden die beiden wichtigsten Eigenschaften des Programmes aus Florida ausführlich beschrieben: F1: Falls alle 99 Wähler einstimmig für denselben Kandidaten stimmen, dann wird dieser Kandidat auch vom Computerprogramm zum Sieger der Wahl erklärt. F2: Angenommen, jeder einzelne der 99 Wähler würde seine Meinung ändern und zu einem anderen Kandidaten wechseln. Dann würde nach dem Wechsel auch das Computerprogramm einen anderen Kandidaten zum Sieger erklären. Die Florida-Eigenschaft F1 klingt sehr vernünftig: Wenn unter den Wählern vollkommene Übereinstimmung herrscht, dann soll das Wahlsystem nicht anders entscheiden. Die Florida-Eigenschaft F2 ist im Falle von zwei Kandidaten verständlich: Wenn jeder Wähler zum anderen Kandidaten wechselt, dann soll auch das Wahlsystem diesen Wechsel mitmachen. Professor Ambrosius kritisierte zunächst, dass die Eigenschaft F2 im Falle von drei Kandidaten für ihn nur schwer zu akzeptieren sei. Der Professor verfiel dann für eine halbe Stunde in tiefes Nachdenken und begann schließlich zu schmunzeln: „Das klingt ja alles schön und gut! Aber wenn sich das Computerprogramm wirklich so verhält, dann können wir mit 99 Zetteln und einer alten Keksdose das gleiche Ergebnis erzielen. Wir schreiben die ID-Nummern der 99 Wähler auf die 99 Zettel, geben die Zettel in die Keksdose, und ziehen zufällig eine Nummer. Wer 34 gezogen wird, der darf aus den drei Kandidaten den Sieger auswählen.“ Und wirklich: Dieses Keksdosen-Wahlsystem erfüllt die beiden Florida-Eigenschaften F1 und F2. Falls alle 99 Wähler einstimmig für denselben Kandidaten X stimmen, dann bestimmt auch der aus der Keksdose gezogene Wähler den Kandidaten X zum Wahlsieger. Und falls alle 99 Wähler ihre Meinung ändern und zu einem anderen Kandidaten übergehen, dann ändert damit auch der aus der Keksdose gezogene Wähler seine Meinung und erklärt einen anderen Kandidaten zum Wahlsieger. Es kommt aber noch viel schlimmer: Professor Ambrosius konnte auch beweisen, dass sein KeksdosenWahlsystem das einzig mögliche Wahlsystem ist, das diese beiden Florida-Eigenschaften F1 und F2 des Computerprogrammes erfüllt. Sein Beweis wird in diesem Artikel präsentiert. Unser Kegelverein hat sich daraufhin entschlossen, das Computerprogramm von der Firma in Florida doch nicht zu kaufen. Mathematische Modellierung Wir betrachten allgemeine Wahlsituationen, in denen sich n ³ 1 Wähler auf einen Kandidaten aus der Kandidatenmenge K = {1, 2, 3} einigen müssen. Den Lieblingskandidaten des k-ten Wählers (1 £ k £ n) bezeichnen wir mit x k , und alle n Lieblingskandidaten fassen wir in einem n-dimensionalen Vektor x = (x 1, ¼, x n ) ÎK n zusammen. Ein Wahlsystem übersetzt jeden derartigen Lieblingskandidatenvektor x in einen eindeutigen Wahlsieger f (x ). Ein Wahlsystem entspricht also einer Funktion f : K n ® K . Wir nennen zwei Vektoren x = (x 1, ¼, x n ) und y = ( y 1, ¼, y n ) total verschieden, falls x k ¹ y k für alle Komponenten k = 1, ¼, n gilt. Die beiden Eigenschaften F1 und F2 des Computerprogrammes aus Florida können wir in dieser Notation auch wie folgt formulieren: F1: Für jeden Vektor x mit x 1 = x 2 =¼= x n soll f (x ) = x 1 gelten. F2: Für zwei total verschiedene Vektoren x , y ÎK n soll immer f (x ) ¹ f ( y ) gelten. Der von Professor Ambrosius fomulierte Satz lautet: In einem Wahlsystem mit Eigenschaft F2 hängt der Wahlausgang ausschließlich von einem einzigen wichtigen Wähler ab, und die Meinungen der anderen n - 1 Wähler sind für das Wahlergebnis völlig irrelevant. Oder noch einmal anders gesagt: Satz von Ambrosius. Für jede Funktion f : K n ® K mit der Florida-Eigenschaft F2 gibt es eine entsprechende Komponente w mit 1 £ w £ n, sodass alle Funktionswerte f (x 1, ¼, x n ) bereits durch den Wert von x w festgelegt werden. Aufgepasst! Der Satz von Ambrosius nimmt nur auf die zweite Florida-Eigenschaft F2 Bezug, und sagt noch nichts über die Art und Weise aus, wie sich der Wert Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 von x w auf die Funktionswerte f (x 1, ¼, x n ) auswirkt. Zum Beispiel könnte sich ein derartiges Wahlsystem wie folgt verhalten: Wenn der wichtige w-te Wähler für den Kandidaten 1 stimmt, dann siegt Kandidat 2. Wenn er für 2 stimmt, so siegt 3. Und wenn er für 3 stimmt, so siegt Kandidat 1. Ein anderes Beispiel wäre, dass das Wahlsystem immer den Kandidaten 2 zum Wahlsieger erklärt. Erst in Kombination mit der ersten Florida-Eigenschaft F1 impliziert der Satz von Ambrosius, dass das Computerprogramm die Meinung des w-ten Wählers implementieren muss. Beweis des Satzes von Ambrosius. Für n = 1ist der Satz trivial: Wenn es nur einen einzigen Wähler gibt, dann hängt der Wahlausgang natürlich nur von diesem einzigen Wähler ab. Für n ³ 2 werden wir zwei Hauptfälle unterscheiden. Im ersten Hauptfall stellt sich heraus, dass der n-te Wähler alleine für den Wahlausgang verantwortlich ist. Im zweiten Hauptfall ist der n-te Wähler bedeutungslos und für den Wahlausgang irrelevant. Wir können ihn ignorieren, die n-te Komponente streichen, und unsere Analyse für die verbleibenden n - 1 Komponenten wiederholen. Nach wiederholtem Streichen der irrelevanten letzten Komponente landen wir entweder im ersten Hauptfall oder im Fall n = 1, und dann ist der Beweis vollendet. Wir betrachten also für n ³ 2 eine beliebige Funktion f : K n ® K mit der Florida-Eigenschaft F2. Um die Notation kurz zu halten, werden wir im folgenden des öfteren aus einem (n - 1)-dimensionale Vektoren x und einem Kandidaten k durch Nebeneinanderschreiben einen n-dimensionalen Vektor machen; zum Beispiel bezeichnet f (x , k ) den Funktionswert, der dem entsprechenden n-dimensionalen Vektor zugewiesen wird. Im ersten Hauptfall gibt es einen (n - 1)-dimensionalen Vektor x ÎK n - 1, für den die drei Werte f (x , 1), f (x , 2 ), f (x , 3 ) paarweise verschieden sind. Wir nehmen dann einen beliebigen (n - 1)-dimensionalen Vektor y her, und suchen uns dazu einen (n - 1)-dimensionalen Vektor z, der sowohl von x als auch von y total verschieden ist. (So ein Vektor z existiert in der Tat: Für jede Komponente von z gibt es drei mögliche Werte, von denen x und y höchstens zwei blockieren können.) Eigenschaft F2 impliziert dann f (z , 1) ¹ f (x , 2 ) und f (z , 1) ¹ f (x , 3 ). Dann bleibt aber für f (z , 1) nur noch f (x , 1) als möglicher Wert übrig. Analog erhalten wir f (z , 2 ) = f (x , 2 ) und f (z , 3 ) = f (x , 3 ). Nun können wir dieses Spiel für die Vektoren z und y wiederholen: Aus f ( y , 1) ¹ f (z , 2 ) und f ( y , 1) ¹ f (z , 3 ) folgt f ( y , 1) = f (z , 1) = f (x , 1). Völlig analog dazu erund halten wir auch f ( y , 2 ) = f (x , 2 ) f ( y , 3 ) = f (x , 3 ). Da der (n - 1)-dimensionale Vektor y beliebig gewählt war, erfüllt jeder derartige Vektor Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 f ( y , k ) = f (x , k ) für alle k ÎK . Daher hängt der Wert von f nicht von den ersten n - 1 Komponenten ab. Der erste Hauptfall ist mit w := n erledigt. Der zweite Hauptfall behandelt die verbleibenden Situationen, in denen es für jeden (n - 1)-dimensionalen Vektor x ÎK n - 1 zwei verschiedene Kandidaten a ¹ b ÎK mit f (x , a ) = f (x , b ) gibt. Wir fixieren einen Vektor x, und bezeichnen den verbleibenden dritten Kandidaten mit c, wobei c ¹ a und c ¹ b gilt. Wir suchen uns zwei (n - 1)-dimensionale Vektoren y und z, sodass x , y , z paarweise total verschieden sind. (Da es drei verschiedene Kandidaten gibt, können derartige Vektoren y und z leicht konstruiert werden.) Nun gilt: • Da die drei Vektoren (x , a ), ( y , b ), (z , c ) paarweise total verschieden sind, sind die drei Funktionswerte f (x , a ), f ( y , b ), f (z , c ) paarweise verschieden. • Da die drei Vektoren (x , b ), ( y , a ), (z , c ) paarweise total verschieden sind, sind die drei Funktionswerte f (x , b ), f ( y , a ), f (z , c ) paarweise verschieden. folgt nun Aus f (x , a ) = f (x , b ) = a f ( y , a ) = f ( y , b ) = b. Ein symmetrisches Argument liefert uns f (z , a ) = f (z , b ) = g . Die drei Werte a, b, g müssen paarweise verschieden sein. Da (x , c ) und ( y , a ) total verschieden sind, gilt f (x , c ) ¹ b. Da (x , c ) und (z , a ) total verschieden sind, gilt f (x , c ) ¹ g . Dann bleibt nur noch f (x , c ) = a als einzige Möglichkeit übrig. Da {a , b , c} = {1, 2, 3}, haben wir nun für jeden beliebigen (n - 1)-dimensionalen Vektor x ÎK n - 1 gezeigt, dass f (x , 1) = f (x , 2 ) = f (x , 3 ) gilt. Daher hängt der Wert der Funktion f nicht von der letzten Komponente ab. Der zweite Hauptfall ist damit abgehandelt, und der Satz von Ambrosius ist bewiesen. Schlussbemerkungen Der Satz von Professor Ambrosius lässt sich leicht auf Situationen mit mehr als drei Kandidaten erweitern: Falls das Wahlsystem die Florida-Eigenschaft F2 besitzt, dann wird das Wahlergebnis immer durch einen einzigen Wähler bestimmt. Der obige Beweis funktioniert mit kleinen Änderungen auch für die erweiterte Situation. Der Satz von Ambrosius wurde bereits im Jahre 1974 von Don Greenwell und László Lovász in der Arbeit „Applications of product colouring“ (Acta Mathematica Academiae Scientiarum Hungaricae 25, pp 335—340) bewiesen. Greenwell und Lovász leiten allgemeinere Resultate aus dem Bereiche der Graphfärbungen her. Anschriften der Verfasser: Axel Born: ORG Ursulinen, Leonhardstraße 62, 8010 Graz. Gerhard J. Woeginger: TU Eindhoven, P.O. Box 513, 5600 MB Eindhoven, Niederlande. 35 Geometrische Optimierung mit Nebenbedingungen Helmut Brunner In diesem Beitrag soll an Beispielen in drei Variablen gezeigt werden, wie analytische Geometrie (Koordinatengeometrie) den Themenkreis der Optimierung (lineare Optimierung, Differentialrechnung) vorbereiten kann. Als bekannt vorausgesetzt wird die graphische Optimierung in zwei Variablen (z. B.: bei der linearen Optimierung sind die Eckpunkte des zulässigen Bereichs Kandidaten für Extrema). Sie ist ebenfalls eine Anwendung der Koordinatengeometrie (Beschreibung von Bereichen mit Ungleichungen). 1. Lineare Optimierung mit zwei Nebenbedingungen Aufgabe: Eine Firma stellt drei Produkte X, Y, Z her. Die Produktion erfolgt in zwei Stufen, die Herstellung eines Vorprodukts in Maschinenhalle A und die Endverarbeitung in Maschinenhalle B. Die Bearbeitungsdauer je Mengeneinheit beträgt in Halle A je 1, 2 bzw. 3 Zeiteinheiten für die Vorprodukte von X, Y, Z, und in Halle B 3, 1 bzw. 2 Zeiteinheiten. Jede Halle habe die Kapazität von 120 Zeiteinheiten. Der Deckungsbeitrag je Mengeneinheit betrage für die drei Produkte 4, 6 und 9 Geldeinheiten. Bei welchen Produktionsmengen x, y, z wird der gesamte Deckungsbeitrag unter Berücksichtigung der Kapazitätsschranken maximal? Es handelt sich hier um folgende Extremwertaufgabe: Zielfunktion: f (x , y , z ) = 4 × x + 6 × y + 9 × z ® Max Nebenbedingungen: x + 2 × y + 3 × z £ 120, x + y + 2 × z £ 120 Einschränkung auf positive Lösungen: x , y , z ³ 0 Der klassische Zugang ist wie folgt: Der zulässige Bereich möglicher Lösungen wird von den drei Koordinatenebenen begrenzt und nach oben von den beiden Nebenbedingungen, also den Grenzebenen: #1: x + 2 × y + 3 × z = 120, #2: 3 × x + y + 2 × z = 120, #3: x = 0, #4: y = 0, #5: z = 0. Da die Zielfunktion linear ist, wird der Extremwert bei einem der sechs Eckpunkte des zulässigen Bereichs angenommen, also einem Schnittpunkt von jeweils drei dieser Ebenen. Dies führt zu 10 linearen Gleichungssystemen aus je drei Gleichungen für die möglichen Schnittpunkte, die aber nicht alle im zulässigen Bereich liegen. Tabelle 1 listet alle Lösungen auf – samt Prüfung, welche zulässig ist. Bei Punkt Nr. 3 nimmt f das Maximum an: Es werden 24 Mengeneinheiten X, 48 Mengeneinheiten Y und kein Z produziert. Statt alle Eckpunkte zu berechnen, ist es einfacher, zu überlegen, welche Grenzen bindend sind. Bei der Aufgabe ist anzunehmen, dass beide Kapazitätsgrenzen die Produktion einschränken. Der Extremwert liegt demnach auf der Schnittgeraden aus den Ebenen #1 und #2. Sie ist zu ermitteln und für die zulässigen Punkte auf dieser Gerade genügt es dann, das eindi- 36 Tabelle 1: Eckpunkte des zulässigen Bereichs Nr. 1 2 3 4 5 6 7 8 9 10 Ebenen 1, 2, 3 1, 2, 4 1, 2, 5 1, 3, 4 1, 3, 5 1, 4, 5 2, 3, 4 2, 3, 5 2, 4, 5 3, 4, 5 x 0 120/7 24 0 0 120 0 0 40 0 y –120 0 48 0 60 0 0 120 0 0 z 120 240/7 0 40 0 0 60 0 0 0 zulässig? f nein – ja 377+1/7 ja 384 ja 360 ja 360 nein – nein – nein – ja 160 ja 0 mensionale Problem f ® Max zu lösen: Die Schnittgerade von #1 und #2 hat die Parameterdarstellung x = 24 - z2 , y = 48 - 7 × z5 und z beliebig; eingesetzt in f ergibt dies f = 384 - z5 . Der Parameter z wird noch . Somit wird das durch x , y , z ³ 0 begrenzt: 0 £ z £ 240 7 Maximum f = 384 für z = 0 angenommen. Bemerkungen 1. Wenn die vorhandenen Produktionskapazitäten aus wirtschaftlichen Gründen ausgelastet werden sollen (Erhaltung der Arbeitsplätze, Rechtfertigung der Firmenleitung für die Höhe vergangener Investitionen), dann kann die Aufgabe bereits mit Gleichungen als Nebenbedingungen formuliert werden. 2. Ohne solche Zusatzannahmen darf diese Vereinfachung nicht ohne Prüfung angenommen werden, wie f = x + y + z ® Max unter x + 2 × y + 2 × z £ 6, 2 × x + 2 × y + 3 × z £ 3 und x , y , z ³ 0 zeigt: Die erste Bedingung kann wegen der zweiten nicht bindend sein (sie wird dominiert), ihre Schnittgerade ist nicht im zulässigen Bereich. Das Maximum f = 32 wird angenommen auf der Schnittgeraden 2 × x + 2 × y = 3, z = 0. 3. Schnittpunkt Nr. 2 wird für die Aufgabe optimal, wenn der Deckungsbeitrag für Z auf 10 steigt ( f = 411 + 73 ). Hier tritt dann die Frage auf, ob die Lösungen ganze Zahlen sein müssen. Falls ja, wird die optimale Lösung bei x = 17, y = 2, z = 33 angenommen ( f = 411). Um sie zu ermitteln, sind numerische Methoden notwendig (Computeralgebra, Excel-Solver). 2. Lineare Optimierung mit einer Nebenbedingung Aufgabe: Die Firma von oben kommt nun mit den Vorprodukten aus Halle A aus, wofür sie dieselben Deckungsbeiträge erzielt. (Halle B wird verkauft.) Bei welchen Produktionsmengen x , y , z wird der gesamte Deckungsbeitrag unter Berücksichtigung der verbleibenden Kapazitätsschranke maximal? Es handelt sich hier um die Extremwertaufgabe: Zielfunktion: f (x , y , z ) = 4 × x + 6 × y + 9 × z ® Max Nebenbedingungen: x + 2 × y + 3 × z £ 120 Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Einschränkung auf positive Lösungen: x , y , z ³ 0 Der zulässige Bereich ist das Tetraeder mit den Eckpunkten 0 (Koordinatenursprung) und den drei Eckpunkten A, B, C, die man erhält, wenn man die Ebene x + 2 × y + 3 × z £ 120 mit den Koordinatenebenen schneidet. Da f = 0 bei 0, wird das Maximum bei einem der drei Eckpunkte A, B, C angenommen: Wenn die y Gleichung umgeformt wird auf die Form xa + b + zc = 1, dann sind diese Eckpunkte A(a, 0, 0 ), B(0, b , 0 ), C (0, 0, c ). Im Beispiel ist a = 120, b = 60, c = 40 und f = 480 wird maximal bei A(120, 0, 0 ). 3. Quadratische Optimierung mit linearen Nebenbedingungen Aufgabe: Die obige Firma mit den Produktionshallen A, B hat für jedes der Produkte eine degressive Kostenstruktur mit linearen Stückkosten: Die variablen Kosten pro Stunde für die Produktion einer Einheit des Produkts P Î{X, Y, Z} betragen bei der Produktion von p Einheiten jeweils 2,2 - 0, 01 × p Geldeinheiten (wobei wegen der Kapazitätsschranken nicht mehr als 60 Einheiten produziert werden). Bei welchen Produktionsmengen x , y , z sind die Kosten minimal, wenn beide Hallen ausgelastet werden sollen? Es handelt sich hier (wegen der Produktionszeiten von 4, 3 bzw. 5 Stunden für X, Y bzw. Z) um folgende Extremwertaufgabe Zielfunktion: 4 × (2,2 × x - 0, 01 × x 2) + 2 2 +3 × (2,2 × y - 0, 01 × y ) + 5 × (2,2 × z - 0, 01 × z ) ® Min Nebenbedingungen: x + 2 × y + 3 × z £ 120, 3 × x + y + 2 × z £ 120 Einschränkung auf positive Lösungen: x , y , z ³ 0 Bei quadratischen Zielfunktionen sind Extrema sowohl im Inneren, als auch am Rand des zulässigen Bereichs möglich. Die vorliegende Aufgabe ist allerdings ein Sonderfall mit einer quadratischen Zielfunktion und zwei linearen Gleichungen. Diese lässt sich analog zu Aufgabe 1 oben ohne Differentialrechnung behandeln: Die linearen Gleichungen werden gelöst und beschreiben eine Gerade in Parameterdarstellung, mit einer oberen und unteren Grenze für den Parameter t (aus x , y , z ³ 0 abgeleitet; je nach Lage der Gerade könnte eine „Grenze“ für t unendlich sein). Diese Gleichung wird in die Zielfunktion eingesetzt. Das Ergebnis ist eine Parabelgleichung in t. Die Extremwerte einer Parabel sind aber bekannt: Sie werden entweder im Scheitelpunkt angenommen (ermittelt durch eine Ergänzung Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 auf ein Quadrat), oder an einem der Randpunkte. Wo der Extremwert liegt, wird durch Einsetzen probiert. (Die Funktion kann unendlich groß/klein werden, wenn es nur eine endliche Grenze für t gibt.) Im konkreten Beispiel werden die Nebenbedingungen genau für das Linien-Stück mit der Parameterdarstellung x = 24 - z2 , y = 48 - 7 × z5 und 0 £ z £ 240 erfüllt 7 (Aufgabe 1). Eingesetzt in die Zielfunktion f führt dies zur Aufgabe, eine Parabel über einem Intervall zu minimieren: 2 (272.400 + 2.760 × z - 69 × z ) f (z ) = ® Min 625 2 æ 69 ö f (z ) = 480 - ç ÷ × (z - 20 ) ® Min. è 625 ø Die Parabel hat den Scheitelpunkt bei z = 20. Die Kandidaten für Extremwerte sind die Randpunkte und der Scheitelpunkt, wobei æ 240 ö f (0 ) = 435, 84, f (20 ) = 480 und f ç ÷ = 457, 47 è 7 ø Die kostengünstigste Vollauslastung der Anlagen besteht somit bei z = 0, x = 24 und y = 48. Bemerkungen 1. Bei diesem Beispiel führt der Produktionsplan mit dem maximal erzielten Kostendeckungsbeitrag (Aufgabe 1) auch zu den minimalen Produktionskosten bei Vollauslastung (Aufgabe 3). Insgesamt ergibt sich dabei jedoch ein Verlust. 2. Folgender Produktionsplan maximiert den Gewinn (72 Geldeinheiten, noch ohne Fixkosten): x = z = 0 und y = 60. Dabei wird möglichst viel vom Produkt mit dem im Verhältnis zum Produktionsaufwand (3 Stunden) höchsten Kostendeckungsbeitrag (6 Geldeinheiten) produziert, Halle A ausgelastet und Halle B nur zu 50% genutzt. 3. Die Flächen mit konstantem Gewinn G (ohne Rücksicht auf die Nebenbedingungen) sind bei diesem Beispiel Ellipsoide der Form 4 × (x 2 2 - 60) + 3 × (y - 10) + 5 × (z 2 - 20) = 16.700 + 100 × G . Man kann man die Aufgabe der Gewinnoptimierung mit einem Computeralgebrasystem wie folgt geometrisch-interaktiv lösen: Das Ellipsoid und der zulässige Bereich werden geplottet, wobei G mit einem Schieber gesteuert wird. Man vergrößert nun G so lange, bis das Ellipsoid den zulässigen Bereich nur mehr berührt. Anschrift des Verfassers: HR Dr. Helmut Brunner, Kaiser-Franz-Ring 22, 2500 Baden 37 Aufgaben Walther Janous Aufgabe Nr. 123. a) Es sei n ³ 3 eine natürliche Zahl. In einem Gefäß befinden sich n Stäbe verschiedener Längen, nämlich je einer mit der Länge 1, 2, … bzw. n. Aus diesem Gefäß werden in zufälliger Weise drei Stäbe (ohne Zurücklegen) gezogen. Wir bezeichnen mit p n die Wahrscheinlichkeit dafür, dass sich aus den drei Stäben ein nichtdegeneriertes Dreieck bilden lässt. Man beweise, dass die Folge p n , n ³ 3 streng monoton steigt, und man berechne ihren Grenzwert. (Gerhard KIRCHNER, Univ. Innsbruck) b)* [„Open-end-Teil“] Man betrachte das analoge Problem, wobei in zufälliger Weise k (k ³ 3 ) Stäbe aus dem Gefäß gezogen werden, aus denen sich ein (nichtdegeneriertes) konvexes k-Eck bilden lässt. (W. J.) Aufgabe Nr. 124. Die arithmetisch-geometrische Mittelungleichung für drei positive reelle Zahlen x, y und z ergibt beispielsweise 1 1 1 3 . + + ³ x y z 3 xyz a) Man bestimme die besten (nichtnegativen) Konstanten a 3 und b 3, sodass die Ungleichung a3 1 1 1 + + ³ x y z b 3 + xyz für alle x , y , z Î R > 0 erfüllt ist (d. h. a 3 soll dabei möglichst groß und b 3 möglichst klein sein). b)* [„Open-end-Teil“] Man betrachte etwa das analoge Problem für n nichtnegative reelle Zahlen x 1, x 2, ¼, x n (n ³ 2 ) und die Ungleichung 1 1 1 an , + +¼+ ³ x1 x2 x n b n + x 1x 2¼x n aber auch andere „analoge“ Fragestellungen … (W. J.) Schließlich noch das Quicky Q23. Man beweise, dass es für jede positive natürliche Zahl n ein Pythagoreisches Dreieck gibt, von dem jede Seite die Potenz einer natürlichen Zahl ist, deren Exponent eine natürliche Zahl ³ n ist. (trad.) [Zur Erinnerung: Bitte zu den Q-Aufgaben keine Lösungen an mich zu schicken!] Einsendeschluss für Lösungen (bitte in übersichtlicher und gut lesbarer Form – unbedingt getrennt nach Aufgaben [!]) 14. Jänner 2011. Und bitte auch unbedingt in der Betreffzeile die Aufgabennummer(n) anzuführen!] Aufgabenvorschläge (samt Lösungen), Anregungen, Kritik usw. sind jederzeit willkommen. Erklärender Zusatz zur Aufgabe Nr. 121, WN 137 (Heft 2/2009), p. 35. H. Brandstetter weist auf eine im Angabetext versteckte Unklarheit hin. Über einem Alphabet A mit b „Buchstaben“ werden Strings der Länge n mit Buchstaben aus A betrachtet. Die im Teil a) zu bestimmende Anzahl ab (n, k ) aller Strings der Länge n, in denen ein vorgegebener String s der Länge k wenigstens einmal (als Substring) vorkommt, ist insofern missverständlich bezeichnet, als (wie nicht anders zu erwarten) die Anzahl nicht „einheitlich“ von k, sondern vom jeweiligen String s abhängt und deshalb besser mit ab (n, s ) bezeichnet werden sollte! Lösung der Aufgaben aus WN 135 (Heft 3/2008), p. 37. Projektion nicht nur des Einheitsquadrates … Aufgabe Nr. 117. a) Gegeben sei ein Einheitsquadrat ABCD, durch dessen Eckpunkt A eine (variable) Gerade g verlaufen möge. Das Quadrat wird auf g normal projiziert, wodurch sein „Schatten“ entsteht, dessen Länge mit s (g ) bezeichnet wird. Man bestimme den Mittelwert m aller Schattenlängen s (g ) , wenn g eine Volldrehung um A beschreibt. b)* [„Open-End-Teil“] Man betrachte das analoge Problem für andere hinreichend „brave“ konvexe Figuren, für den Einheitswürfel, der normal auf eine Ebene durch einen Eckpunkt projiziert wird, … (Gerhard KIRCHNER, Univ. Innsbruck) Zuschriften sind eingegangen von: Johann BRANDSTETTER (Wien), Karl EDLINGER (Wien), Herbert HAMETNER (Gallneukirchen), W. J., Karl-Uffe KACETL (Wien), Gerhard KIRCHNER (Innsbruck), Wolfgang KIRSCHENHOFER (Herzogenburg), Otto PREM (St. Johann im Pongau), Kurt SCHOISSWOHL (Innsbruck), Johanna TIBAUDO (Innsbruck) und Otto VOGL (Linz). zu a). Von allen Beiträgern wurde im Wesentlichen der folgende „natürliche“ Lösungsweg beschritten. Es sei j der Winkel, den die Gerade g und die Seite AB einschließen. Man unterscheidet nun am besten die zwei naheliegenden charakteristischen Fälle. Zuschriften erbeten an Walther Janous, WRG Ursulinen, Fürstenweg 86, 6020 Innsbruck (oder Schneeburggasse 169, 6020 Innsbruck), bzw. WORD-lesbare Dokumente an [email protected]. [Bitte dabei NUR einen kompatiblen Formel-Editor zu verwenden! 38 Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 i) 0 £ j £ p 2 tenlängen bei einer Volldrehung der Geraden g um den Eckpunkt A den Wert m = 28p , d. h. m = p4 (= 1,2732…). Mit anderen Worten bedeutet dieses Ergebnis, dass m das p1 -fache des Umfanges von ABCD ist. . zu b). [J. Tibaudo, G. Kirchner und W. J.] Der erste Typ einer Verallgemeinerung liegt gewissermaßen auf der Hand. Figur 1 Im 1. Quadranten ist im Dreieck AFC l für j £ p : s (g ) = 2 × cos æç p - j ö÷ und è4 ø 4 p p l für £ j £ : s (g ) = 2 × cos æç j - p ö÷ . è 4 2 4ø Insgesamt bedeutet dies æ æ p ö + sin j sin æ p ö ö , d. h. ÷ ç ÷÷ è 4ø è 4øø è s (g ) = cos j + sin j ist. s (g ) = 2 × ç cos j cos ç p Daraus erhält man p 2 ò (cos j + sin j )× d j = [sin j - cos j] 2 0 0 ii) p 2 = 1+1 = 2 £ j £ p. l [J. T. und W. J.] Reguläre Vielecke V n . (Dabei sei n die Anzahl der Eckpunkte.) Für sie kann man sich unschwer Folgendes überlegen. i) n ist gerade, n ³ 4. Es sei g j eine Gerade durch den Eckpunkt A1, die mit der Vielecksseite A1A2 den Winkel j einschließt, wobei 0 £ j £ pn ist. (D. h., dass die Geraden g j das Dreieck A1A2A3 zur Gänze überstreichen.) Dann betragen die Schattenlängen s n (j ) der Vielecke V n auf den Geraden g j (unterschieden nach den Restklassen modulo 4): s 4 m (j ) = l m - 1 × cos(my 4 m + j ) + l m + 1 × cos(my 4 m - j ) bzw. s 4 m + 2(j ) = = l m × cos((m + 1)y 4 m + 2 + j) + l m + 1 × cos(my 4 m + 2 - j ) sin( j y n ) p sind. wobei y n = und l j = l j , n = sin y n n yn Eine einfache Integration ergibt s n (j )× dj = 1, 0 n º 0, 2 (mod 4 ). ii) n ist ungerade, n ³ 3. Wir betrachten nun die Geraden g j durch den Eckpunkt A1, die mit der Vielecksseite A1A2 den Winkel j einschließen, wobei 0 £ j £ pn ist. (D. h., dass die Geraden g j die „untere Häfte“ des Winkelfeldes ÐA2A1A3 überstreichen.) Dann betragen die Schattenlängen s n (j ) der Vielecke V n auf den Geraden g j (wieder unterschieden nach den Restklassen modulo 4): s 4 m + 1(j ) = ò = l m × sin ((2m - 1)y 4 m + 1 - j ) + l m + 1 × cos (2my 4 m + 1 - j ) bzw. s 4 m + 3(j ) = = l m × sin ((2m + 1)y 4 m + 3 - j) + l m + 1 × cos (2my 4 m + 3 - j) p ò Figur 2 Im 2. Quadranten setzt sich s (g ) aus den zwei Anteilen AF und AG zusammen. Deshalb erhalten wir aus den Dreiecken ABF und ADG, dass pö pö æ æ ÷ + sin ç j - ÷ , d. h. è è 2ø 2ø s (g ) = sin j - cos j ist. s (g ) = cos ç j - p Erneut haben wir ò (sin j - cos j )× d j = [- cos j - sin j] p und wobei nun allerdings y n = 2n sin(2 j y n ) sind. l j = l j,n = sin(2 y n ) Nun rechnet man durch eine einfache Integration yn 1 s n (j )× dj = , n º 1, 3 (mod 4 ), nach. 2 0 Diese zwei Integrale legen es („aus Symmetriegründen“) nahe, dass der Mittelwert aller Schattenlängen s (g ) eines regulären n-Ecks V n den Wert m n = np hat, wenn g eine Volldrehung um einen Eckpunkt von V n beschreibt. Diese Formel bedeutet auch, dass m n der Quotient des Umkreisdurchmessers und eines Umkreisbogens von V n ist, der zwischen zwei aufeinanderfolgenden Eckpunkten von V n liegt. Bemerkung. Ein (eleganter) Beweis der angegebenen Darstellung von m n wird gerne in den Wiss. Nachr. veröffentlicht! p p = 1+1 = 2 2 2 Weil man für p £ j £ 32p und 32p £ j £ 2 p entsprechende Ergebnisse erhält, hat der Mittelwert aller Schat- Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 l [G. K.] Parallelprojektion des Einheitswürfels in Richtung eines dreidimensionalen Einheitsvektors. 39 Es sei A(v ) der Flächeninhalt des Polygons, das sich durch Parallelprojektion des Einheitswürfels C = 0,1 ´ 0,1 ´ 0,1 Í R 3 in Richtung eines Einheitsvektors v ÎS 2 Í R 3 ergibt. (Dabei ist wie üblich S 2 die Einheitssphäre.) Dann haben alle Flächeninhalte A(v ) den Mittelwert 3 , wenn v die Einheitssphäre durchläuft. 2 Vorbemerkung zum Beweis. Wenn man ein Polygon, das in einer Ebene e liegt, in Richtung eines Einheitsvektors v projiziert und mit a den Winkel zwischen v und der Einheitsnormalen von e bezeichnet, so hat die Projektion den cos a -fachen Flächeninhalt des Ausgangspolygons. Deshalb ergibt sich 1 1 cos a(x ) dS (x ) = A(v ) = n(x ), v dS (x ), 2 ¶C 2 ¶C wobei sich die Integration über die Oberfläche des Einheitswürfels erstreckt und sich der Faktor 12 deshalb ergibt, weil bei der Projektion die Vorder- und Hinterseite des Würfels idente Flächeninhalte ergeben. Damit erhalten wir für den gesuchten Mittelwert 1 1 A(v )dS (v ) = n(x ), v dS (v )dS (x ). 4p S 2 8 p ¶C S 2 Aus Symmetriegründen ist das innere Integral unabhängig von x und kann folgendermaßen mit Kugelkoordinaten bestimmt werden: [ ] [ ] [ ] òò òò òò òò òò p 2p òò n(x ), v dS (v ) = ò ò 4 p ò cos J sin J dJ =2 p. S 2 p 0 0 b)* [„Open-end-Teil“] Man betrachte die analoge Fragestellung für die zwei Flächeninhalte, man untersuche die entsprechenden größten unteren Schranken und man formuliere und beweise Verallgemeinerungen dieser Aufgabe in der Ebene oder im Raum, etwa für andere Tangentenpolygone, für Tetraeder, … (W. J.) Zuschriften sind eingegangen von: Johann BRANDSTETTER (Wien), Karl EDLINGER (Wien), Herbert HAMETNER (Gallneukirchen), W. J., Karl-Uffe KACETL (Wien), Gerhard KIRCHNER (Innsbruck), Wolfgang KIRSCHENHOFER (Herzogenburg), Otto PREM (St. Johann im Pongau), Kurt SCHOISSWOHL (Innsbruck), Johanna TIBAUDO (Innsbruck) und Otto VOGL (Linz). zu a). Nahezu alle Beiträger gehen in ihren Lösungen wie O. Prem vor, der folgenden schönen Beweis dafür angibt, dass per (PQRSTU ) 2 £ per ( ABC ) 3 gilt und die Schranke 23 nicht verkleinert werden kann. Figur 4 cos J sin J dj dJ = 2 0 Damit ist schließlich 1 1 2 p dS (x ) = A(v )dS (v ) = 4p S 2 8 p ¶C 1 3 = × (Oberfläche von C ) = 4 2 Abschließende Bemerkung. Das Mittelwertergebnis 41 × (Oberfläche von C ) gilt für alle konvexen Polyeder C und sogar für alle konvexen Körper C mit glatter Oberfläche. òò òò Seitenparallele Abschnitte eines ebenen Dreiecks Aufgabe Nr. 118. Das Sechseck PQRSTU erhält man in einem beliebigen Dreieck DABC dadurch, dass man an den Inkreis die drei seitenparallelen Tangenten legt. Figur 3 a) Man bestimme die kleinste obere Schranke des per (PQRSTU ) , wobei per (XY ¼Z ) den Quotienten per ( ABC ) Umfang der Figur XY ¼Z bezeichnet. 40 l Wegen der Gleichheit der Tangentenabschnitte und aus Symmetriegründen gilt: ST = QP , TU = QR undUP = RS Seien BC = a , CA = b , AB = c, PQ = x , r der Inkreisradius und s = a +b2 + c . Wegen der Ähnlichkeit der Dreiecke BCA, BSR, TCU und PAQ gilt: a x . = ha ha - 2r a (ha - 2r ) Daraus ergibt sich x = (i). ha Für den Flächeninhalt A eines Dreiecks kann man schreiben ah A = a = rs . 2 2rs . Daraus folgt ha = a a2 Einsetzen in (i) liefert x = a - . s Für den Umfang U S des Sechsecks PQRSTU erhält man durch zyklische Vertauschung æ a2 b2 c2 ö U S = 2ç a + b - + c - ÷. s s s ø è Setzt man für s ein, so erhält man 2ab + 2ac + 2bc - a 2 - b 2 - c 2 . US =2 a +b +c Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Behauptung: 2ab + 2ac + 2bc - a 2 - b 2 - c 2 2 US =2 £ 2 3 U ABC (a + b + c ) Das Gleichheitszeichen gilt für a = b = c. ( ) (ii) Beweis: Es ist (a - b ) + (b - c ) + (c - a ) ³ 0. Daraus ergibt sich a 2 + b 2 + c 2 ³ ab + bc + ac 2 (a + b + c ) 2 2 2 ³ 3(ab + bc + ca ) Für den Zähler in (ii) gilt daher 2ab + 2bc + 2ca - a 2 - b 2 - c 2 £ ab + bc + ca £ woraus die Behauptung folgt. (a + b + c ) , 2 3 l Einen vollständig anderen Zugang wählt H. Brandstetter. Das Dreieck wird in ein Koordinatensystem gelegt. Der Inkreis sei der Einheitskreis mit Mittelpunkt im Ursprung. Die gegebenen Punkte entstehen jeweils als Schnittpunkte von Tangenten an diesen Inkreis. Wir wählen 3 Tangentenpaare, jedes Paar ist parallel. Das erste Paar t 1 und t 1 habe Steigung 0. Das sind die Geraden durch PQ bzw. durch BC . Das zweite Tangentenpaar habe Steigung k 1 und das dritte Tangentenpaar habe die Steigung k 2. Wir können die Steigung k 1 positiv und die Steigung k 2 negativ annehmen. Die Tangenten t 2 und t 2 verlaufen durch AB bzw. TU ; t 3 und t 3 verlaufen durch AC bzw. RS. Mit der Berührbedingung bekommen wir die Tangentengleichungen: erstes Paar t 1: y = 1 t 1: y = -1 zweites Paar drittes Paar t 2: y = k 1x + 1 + k 12 ( ) Für die Summe der Wurzeln der 3 Dreiecksflächen ergibt sich AQPA + ABSR + ATCU = = r r r s - a )+ s - b )+ ( ( (s - c ) = s s s A (3s - a - b - c ) = A s Man vergleiche dazu auch http://www.gogeometry.com/problem/ p142_four_triangles_incircle_areas.htm. = zu b). [J. Tibaudo, W. Kirschenhofer und W. J.] l Wir bezeichnen mit (XY ¼Z ) den Flächeninhalt der Figur XY ¼Z . r Dann gelten (PQRSTU ) = per (PQRSTU )× und 2 (ABC ) = per (ABC )× r2 . (PQRSTU ) = per (PQRSTU ) Daraus folgt sofort per ( ABC ) (ABC ) (PQRSTU ) £ 2 mit Gleich(ABC ) 3 t 2: y = k 1x - 1 + k 12 und es gilt nach Teil a), dass t 3: y = k 2x + 1 + k 22 2 heit genau für das gleichseitige Dreieck ABC. ist also 3 (PQRSTU ) die kleinste obere auch für den Quotienten ABC ) ( Schranke. Außerdem zeigen gleichschenkelige Dreiecke ABC mit Basis AB und ÐBAC ® 0, dass der Wert des in Rede stehenden Quotienten gegen Null strebt. Deshalb gilt per (PQRSTU ) (PQRSTU ) 2 0< = £ , per ( ABC ) (ABC ) 3 t 3: y = k 2x - 1 + k 22 Wenn man die entsprechenden Tangentenschnittpunkte berechnet, ergeben sich die Punkte A, B, C, Q, R, S, T und U in Abhängigkeit von k 1 und k 2, etwa æ k 22 + 1 - k 12 + 1 k 1 k 22 + 1 - k 2 k 12 + 1 ö ÷÷ , k1 - k2 k1 - k2 ø t 2 Ç t 3 = A çç è und æ 1 - k 22 + 1 ö , 1÷÷ . k2 è ø t 1 Ç t 3 = P çç Daraus ergibt sich der Quotient per (PQRSTU ) q (k 1, k 2 ) = = per ( ABC ) PQ + QR + RS + ST + TU +U P AB + BC + CA nach einiger Rechnung als = q (k 1, k 2 ) = çæ - k 22 + k 22 + 1 - 1 ÷ö k 12 - çæ k 22 + 1 k 12 + 1 + k 12 + 1 + k 22 + 1 - 1 ÷ö k 1 + çæ k 12 + 1 - 1 ÷ö k 22 ø ø è ø è = 2è oder v [W. J.] indem man beispielsweise k j = sinh ln w j , j = 1, 2, setzt. Damit ergibt sich eine elementar beweisbare polynomiale Ungleichung in zwei Variablen. Bemerkung. [O. Prem] Eine interessante Beziehung besteht zwischen der Fläche AABC des gegebenen Dreiecks und den Flächen ABSR , ATCU und AQPA der 3 Teildreiecke. Es ist æ 2rs - 2r ö 2 ç ÷ 2 ø r (s - a ) æ ö a è a . AQPA = ç a - ÷ = s s ø 2 è çæ k 22 + k 22 + 1 + 1 ÷ö k 12 - æç k 12 + 1 + 1 ÷ö k 2 çæ k 22 + 1 + 1 ÷ö k 1 + çæ k 12 + 1 + 1 ÷ö k 22 è ø è ø è ø è ø Nun muss man noch nachweisen, dass der Wert dieses Quotienten die Zahl 23 nicht übersteigt. Dafür bieten sich mehrere Möglichkeiten an, etwa v [H. B.] mittels partieller Ableitungen Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 wobei die zwei Schranken bestmöglich sind. l In Analogie zum Dreieck erhält man für gewisse konvexe TangentenvieleckeV 2n + 1 mit einer ungeraden Zahl von Eckpunkten A1, A2, ¼ und A2n + 1(n ³ 1) und lauter nichtparallelen Seiten durch Zeichnen der seitenparallelen Tangenten und ihren Schnittpunkten mit den entsprechenden Seiten von V 2n + 1 ein neues Vieleck T (V 2n + 1 ) = B 1B 2¼B 4 n + 2 mit doppelt so großer Eckenzahl wie V 2n + 1. Dafür gilt vermutlich die bestmögliche Ungleichungskette per T (V 2n + 1 ) T (V 2n + 1 ) p ö 0< = £ 1 - tan 2 æç ÷. è 4n + 2 ø per (V 2n + 1 ) (V 2n + 1 ) ( ) ( ) Ein Beweis oder eine Widerlegung dieser Aussage wird gerne in den Wiss. Nachr. veröffentlicht! *** 41 Nachtrag zur Lösung der Aufgabe Nr. 114, WN 136 (Heft 1/2009), p. 35 f. Darin findet sich folgende Aussage: Für konvexe n-Ecke n ³ 3 mit Flächeninhalt F gilt für n ( n - 3) die Summe Ln aller n Seiten und 2 Diagonalen die Ungleichung 2nF 1 . Ln ³ × 2p p sin tan n 2n Dankenswerterweise hat Herr K.-U. Kacetl die Lösung kritisch durchgesehen und weist darauf hin, dass die oben angegebene vermeintliche untere Schranke für Ln bei gewissen n-Ecken unterschritten wird. Dies überlegt man etwa mit Konfigurationen 12 ¼n der Art Figur 5 2 ö æ ç 2nF ÷ ÷ = ç ç sin 2 p ÷ è 2n ø p cos 2 2n 2n » 2n × 2p 2p 2 p sin sin n n 2n × 1 æ pö ç ÷ è 2n ø 2 = 4 p3 ×n 4 Man kann sich auch überlegen, dass sich die ursprünglich angegebene Schranke für alle n ³ 5 unterschreiten lässt. 42 [W. J.] L3 = a + b + c ³ 2 3F 3 gilt. (Denn mit der arithmetisch-geometrischen Ungleichung und der Heron-Formel haben wir: 3 s4 æs -a +s -b +s -cö F 2 = s (s - a )(s - b )(s - c ) £ s × ç ÷ = , è ø 3 27 d. h. 3F 3 £ s .) Deshalb bleibt als offene Frage die Bestimmung der besten unteren Schranken m n (F ), sodass bei gegebenem n ³ 3 für alle konvexen n-Ecke mit Flächeninhalt F n(n - 3 ) für die Summe Ln aller n Seiten und Diagona2 len die Ungleichung Ln ³ m n (F ) gilt. Auch dafür werden weiterführende Ergebnisse gerne in den Wiss. Nachr. veröffentlicht! *** Dabei sind 12 = 2, 23 = 1n » 2 und j ( j + 1) » 0, j = 3, ¼, n - 1, sodass F = 1 ist. Dann gilt Ln » 2 2 (n - 2 ) + 2, d. h. L2n » 8n 2 +¼ Andererseits ist sin x » x , wenn x ® 0. Damit ergibt sich für n ® ¥ aber: = Dagegen lässt sich für n = 3 zeigen, dass Zum Schluss noch die Lösung der Aufgabe Q22 aus dem letzten Heft der WN: Es seien x 1, x 2, ¼, x n (n ³ 2 ) n reellen Zahlen mit Produkt P, sodass P - x j , j = 1, 2, ¼, n, ungerade ganze Zahlen sind. Man zeige, dass die n Zahlen x 1, x 2, ¼, x n irrational sind. Wir führen den Beweis indirekt. Angenommen, es gäbe eine rationale Zahl unter den n Zahlen x 1, x 2, ¼, x n , es sei dies o. E. d. A. die Zahl x 1. Dann ist P eine rationale Zahl. Mit y j = P - x j , j = 1, 2, ¼, n, haben wir (*). (P - y 1 )× (P - y 2 )×¼× (P - y n ) = P Nun sind aber y 1, y 2, ¼ und y n lauter ungerade ganze Zahlen. Die Gleichung (*) besagt, dass die rationale Zahl P Lösung einer algebraischen Gleichung mit lauter ganzzahligen Koeffizienten und dem Leitkoeffizienten 1 ist. Folglich ist P eine ganze Zahl. Wir unterscheiden nun folgende zwei Fälle: i) P ist gerade. Dann sind P - y j , j = 1, 2, ¼, n, ungerade und (*) ist nicht möglich. ii) P ist ungerade. Dann sind P - y j , j = 1, 2, ¼, n, gerade und (*) ist erneut nicht möglich. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 PHYSIK, ASTRONOMIE Dr. Christian Wolny Bremswege mit Excel berechnen Helmut Brunner Aus einer zweidimensionalen Grundgesamtheit wird eine Stichprobe von n Wertepaaren, x i Î X und yi ÎY , durch Experimente oder Beobachtungen gewonnen. Daraus soll auf einen gesetzmäßigen Zusammenhang zwischen den Größen X und Y geschlossen werden. Als Beispiel betrachten wir den Zusammenhang zwischen der Fahrgeschwindigkeit v eines Pkw und dem zugehörigen Bremsweg s. Wir behandeln zwei Modelle, allgemeine Polynome und durch physikalische Überlegungen eingeschränkte Polynome, und verwenden in Excel zwei Zugänge, die automatisierte Datenanpassung und die Optimierung mit dem Solver. 1. Daten Wir verwenden die Messdaten der ersten beiden Spalten von Tabelle 1 über die Bremswege s ab Eintritt der Bremswirkung in Abhängigkeit von der Geschwindigkeit v. Die Messanordnung filtert dabei die Reaktionszeit des Fahrers und die Ansprechzeit der Bremse heraus. Die dritte Spalte rechnet v zur besseren Kompatibilität mit physikalischen Modellen in m/s um; die Rechnungen verwenden nur diese Einheit. Abbildung 1 drückt den Bremsweg als Funktion der Geschwindigkeit aus: Die Rohdaten sind die grauen Quadrate, die punktierte Linie ist die in Excel vorprogrammierte Kurvenanpassung und die Anpassung an ein physikalisches Modell ist die durchzogene Linie. s in m 13 17 25 51 82 Im Excel Grafikmodul ist eine Datenanpassung an Polynome vorprogrammiert. Dazu klickt man im Diagramm mit der rechten Maustaste die Kurve der Rohdaten an und geht zu „Trendlinie hinzufügen“. Dabei hat man eine Auswahl verschiedener Funktionstypen, darunter Polynomfunktion mit einem Schaltfeld für den Grad. Nachdem man den Typ angeklickt hat, gibt es noch die Option, die Funktionsgleichung der Trendlinie anzeigen zu lassen. Die Anpassung an ein Polynom zweiten Grades liefert dann die punktierte Linie in Abbildung 1. Die Kurvengleichung lautet s = 0, 0485v 2 + 0, 7343v - 7, 4675. Dasselbe Resultat erhält man mit der Methode der kleinsten Quadrate: Gesucht sind dabei die Koeffizienten p, q, r eines Polynoms s = f v = p × v 2 + q × v + r , dass das Gütemaß der Anpassung an die Daten v i , s i , () ( ) nämlich die Summe der Fehlerquadrate (s - f (v )) , 2 i i minimal wird. Die Differentialrechnung liefert eine Formel für diese Koeffizienten; sie ist im Grafikmodul von Excel vorprogrammiert. Alternativ kann man die Koeffizienten auch mit dem Solver von Excel ermitteln:1 Die Zelle, wo die Summe der Fehlerquadrate berechnet wird, soll minimiert werden, und die Zellen mit den (zunächst willkürlich gewählten) Parameterwerten sind die Variabeln. 3. Anpassung an ein physikalisches Modell Tabelle 1. Tabelle der Messdaten. v in km/h 50 60 70 100 130 2. Anpassung an ein allgemeines Polynom v in m/s 13,89 16,67 19,44 27,78 36,11 Abbildung 1. Messdaten und Anpassungen. Aus der Physik kennt man die Bremswegformel v2 . Dabei ist v die Geschwindigkeit in m/sec, s s = 2b der Bremsweg in m und b die Bremsverzögerung in m/sec2. Häufig geht man für Pkw in Gefahrensituationen von der Annahme aus, dass die Bremsverzögerung b = 7,72 m/s2 beträgt, weil sich dann der Bremsweg einv2 fach errechnet als s » , wenn v in km/h eingege200 m ben wird. ( ) Die physikalische Bremswegformel geht vom Modell der beschleunigten Bewegung aus: Während des 1 Für Details vgl. Helmut Brunner (2001): Der Solver von EXCEL in der Mathematik – eine Kurzdarstellung an Hand von Fallbeispielen. In: Wissenschaftliche Nachrichten. Jg. 115, S. 31–33. In Excel 2003 wird der Solver im Menü Extras aufgerufen. Damit man ihn dort findet, muss er im Add-Ins Manager (Menü Extras) angeklickt sein bzw. muss man ihn von der Office CD aus installieren. Bei Excel 2007 ist der Solver in der Multifunktionsleiste von Daten versteckt und der Add-Ins Manager im Menü Optionen. Die Sicherheitseinstellungen sollen so eingestellt werden, dass sie die Ausführung des Solvers nicht blockieren. Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 43 Bremsvorgangs gilt die Bewegungsgleichung x ¢¢ t = -b , wobei x die Position zum Zeitpunkt t ist. Zum Bremsbeginn t = 0 sind die Anfangsbedingungen x 0 = 0 und x ¢ 0 = v . t2 Die Lösung ist x t = v × t - b × . Die Bremsung en2 v det zum Zeitpunkt t = , wenn der Pkw steht: x ¢ t = 0: b v2 . Der bis dahin zurückgelegte Weg ist s = x t = 2b Im Grafikmodul von Excel kann man die Bremswegformel analog wie oben auswerten, nämlich mit einer Anpassung der Daten an eine Gerade s = p ×U . Dazu berechnet man in der vierten SpalteU = v 2, plottet s als Funktion von U und klickt bei der Trendlinie den Typ „linear“ und die Option „Schnittpunkt = 0“ an. Die Formel der Trendlinie lautet: s = 0, 0638 ×U (mitU = v 2). Für die Bremsbeschleunigung folgt: 1 b = = 7, 8370 m /s 2. 2p () () () () () () ( ) ( ) Auch bei dieser Aufgabe kann man die Modellkurve, das Polynom s = g v = p × v 2, mit der Methode der kleinsten Quadrate an die Daten anpassen. Nun aber unterscheidet sich die mit dem Solver ermittelte Bremsbeschleunigung vom obigen Wert: Der Solver liefert b = 7,8335 m/s2. Der Grund für den Unterschied ist die Angabe von nur vier Dezimalen für p im Grafikmodul und die dadurch resultierende Fehlerfortpflanzung bei der Berechnung von b. Der Solver liefert dasselbe Resultat, wie folgende exakte Formel für p, die auch im Unterricht hergeleitet werden kann: Die Summe der Fehlerquadrate 2 für die vorgegebenen Wertepaare v i , s i s i - g vi ist eine Funktion h p von p, da g von p abhängt. Setzt man die Ableitung h¢ p = 0, so folgt: s i × v i2 . p= v i4 () ( ( )) å å () () ( Man könnte auf die Idee kommen, den Faktor p und damit auch die Bremsverzögerung b mit einer einzigen v2 Messung zu bestimmen, da ja s = gilt. Das ist aber 2b falsch, da die Messungen mit zufälligen Fehlern behaftet sind, die sich erst bei einer genügenden Anzahl von v2 zu Messpunkten ausgleichen: Berechnet man b = 2s jedem Messwert, so variieren die Werte zwischen 7,4 und 8,2 m/s2. (Der Mittelwert davon ist 7,7334 m/s2 und vergleichbar mit den obigen Ergebnissen.) 4. Schlussbemerkung Wir haben für zwei Modelle eine Datenanpassung mit der Methode der kleinsten Quadrate durchgeführt. Das erste Modell verwendet drei Parameter und liefert eine bessere Anpassung (kleinere Fehlerquadratsumme), das zweite Modell verwendet nur einen Parameter, der aber physikalisch zu deuten ist. Welches Modell soll man wählen? Es gibt dazu theoretische Überlegungen, die vereinfacht aussagen, dass ein Modell mit mehr frei wählbaren Parametern nur dann gerechtfertigt ist, wenn es eine deutliche Verbesserung der Güte der Anpassung bewirkt.2 In Abbildung 1 ist das nicht der Fall und das einfachere physikalische Modell ist daher vorzuziehen. Anschrift des Verfassers: HR Dr. Helmut Brunner, Kaiser-Franz-Ring 22, 2500 Baden ) 2 Details bei Burnham und Anderson (2002): Model Selection and Mulimodel Inference. Springer Berlin. Katakaustik Philipp John, Renate Wolny Ein Phänomen, die Reflexion von Licht betreffend, das sich leicht bei geeigneter Beleuchtung einer Kaffeetasse (oder ähnlichen Objekten, die annähernd hohlzylindrische Form besitzen und Licht ausreichend reflektieren) beobachten lässt, ist die Katakaustik. Es handelt sich dabei um jene Fläche, die von den reflektierten Strahlen des auf die Innenseite des Objektes einfallenden Lichtes ausgeleuchtet wird. Abbildung 1 zeigt von oben einen halbzylindrisch zugeschnittenen Konservendosenboden, der von einer Seite (in Abbildung 1 von unten) durch Sonnenstrahlen beleuchtet wird. Die Katakaustik ist deutlich erkennbar. Frivolere Gemüter erkennen in dem weniger hell erleuchteten Teil der halbkreisförmigen Scheibe zwei wohlgeformte Gesäßhälften. Der schwarze Bereich in Abbildung 1 ist der Schatten der halbzylindrischen Konservendose. 44 Wir wollen uns in diesem Artikel mit der Frage beschäftigen, wie sich die Einhüllende der Katakaustik mathematisch beschreiben lässt und in weiterer Folge auch den Flächeninhalt sowie den Umfang der Katakaustik berechnen. Abbildung 1 Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 ( ) ( ) () () () () () sin 2a = 2 sin a cos a cos 2a = cos 2 a - sin 2 a so lässt sich die Gerade g a wie folgt schreiben: æ 2a r 2 - a 2 ö çr2 ÷ a æ ö ç ÷ (2) l g a :X = ç 2 + ÷ 2 è r - a 2 ø ç 1 - 2a ÷ è ø r2 Wir suchen nun jenen Punkt, in dem die Gerade g a die Einhüllende tangiert. Zu diesem Zweck betrachten wir einen weiteren Strahl, der im Abstand a + Dx (Dx ist so zu wählen, dass a + Dx Î 0; r ) vom Ursprung auf den Halbkreis einfällt. Der reflektierte Strahl liegt auf der Geraden æ 2 a + Dx 2 2ö r - a + Dx ÷ æ a + Dx ö çç r 2 ÷ (3) g a + Dx : X = ç 2 2÷ +m 2 ÷ 2 a + Dx è r - a + Dx ø çç ÷ø 12 è r Dabei ist m wiederum eine beliebige reelle Zahl. Die beiden Geraden g a und g a + Dx schneiden einander im Punkt Pa Dx . Wir erhalten diesen Punkt, indem wir (2) und (3) gleichsetzen, das resultierende Gleichungssystem in den Unbekannten l und m nach einer der beiden lösen und das Resultat in die entsprechende Gleichung für g a oder g a + Dx einsetzen. Man erhält z. B.: 2 r2 æ 2a 2 ö a r 2 - a 2 é r 2 - a + Dx - r 2 - a 2 ù 1 - 2 ÷ Dx ç úû 2 è r ø êë . m a Dx = 2 æ 1 - 2a 2 ö a + Dx r 2 - a + Dx 2 - a r 2 - a 2 é1 - 2 a + Dx ùú ç ÷ ê r2 è r2 ø úû êë Wir haben jetzt m a Dx statt nur einfach m geschrieben, um anzudeuten, dass m sowohl von a als auch von Dx abhängt. Der Schnittpunkt æ 2 a + Dx 2 2ö ç r - a + Dx ÷ 2 æ a + Dx ö r ÷ (4) Pa Dx = ç 2 Dx çç 2÷ +m 2 ÷ 2 a + Dx è r - a + Dx ø a çè ÷ø 12 r der Geraden g a und g a + Dx liegt, wie wir Abbildung 2 entnehmen, nicht auf der Einhüllenden, aber in x-Richtung betrachtet zwischen jenen Punkten P1 und P2 von g a und g a + Dx , in denen die Geraden die Einhüllende tangieren. Lassen wir Dx gegen Null gehen, so nähert sich P2 dem Punkt P1 und im Grenzfall Dx = 0 fallen sie mit dem Punkt Pa 0 zusammen. Jeder Punkt Pa 0 der Einhüllenden ist demnach durch den Parameter a beschrieben. Um Pa 0 zu berechnen, betrachten wir vorerst die Vektoren in Gleichung (4). In ihnen lässt sich der Grenzübergang Dx ® 0 problemlos durchführen. Schwierigkeiten beim Grenzübergang Dx ® 0 treten jedoch in m a Dx auf, denn hier handelt es sich um einen Fall der Form „0/0“. Wir sind also gezwungen, die Regel von l’Hospital f Dx f ¢ Dx m a 0 = Dlim m a Dx = Dlim = Dlim x ®0 x ® 0 g Dx x ® 0 g ¢ Dx () () [ ] Abbildung 2 Der Einfachheit halber gehen wir von einer reflektierenden Fläche aus, die am Umfang eines Halbkreises situiert ist, und auf die parallel zur Symmetrieachse des Halbkreises und annähernd parallel zur Ebene des Halbkreises Licht einfällt. Im Mittelpunkt des Halbkreises mit Radius r denken wir uns den Ursprung eines x/y-Koordinatensystems, auf dessen x-Achse der Durchmesser des Halbkreises liegt (siehe Abbildung 2). Der Halbkreis soll sich oberhalb der x-Achse befinden. Die Lichtstrahlen fallen demnach von unterhalb der xAchse parallel zur y-Achse auf den Halbkreis. Jeder Lichtstrahl, der auf den Halbkreis trifft, wird nach dem Reflexionsgesetz reflektiert. D. h., der Winkel zwischen dem einfallenden Strahl und dem Radius zu dem Punkt K a , an dem der Strahl den Halbkreis trifft, ist derselbe, wie zwischen diesem Radius und dem reflektierten Strahl. Das „Zusammenspiel“ aller reflektierten Strahlen bildet die Einhüllende der Katakaustik (In Abbildung 2 als schraffierte Fläche nur im linken Teil dargestellt). Wir nehmen (vorerst ohne Begründung) an, dass jeder reflektierte Strahl auf einer Tangente an die Einhüllende der Katakaustik liegt. Um eine mathematische Beschreibung für die Einhüllende zu finden, gehen wir wie folgt vor: Wir betrachten einen Strahl (siehe Abbildung 2), der im Abstand a Î 0; r vom Ursprung einfällt. Dieser Strahl trifft im Punkt æ a ö K a =ç ÷ è r 2 -a2 ø auf den Halbkreis. Es sei a der spitze Winkel zwischen dem Radius zum Punkt K a und der x-Achse. Der einfallende Strahl wird demnach unter dem Winkel p2 - a reflektiert. Der reflektierte Strahl liegt auf der Geraden r g a : X = K a + lr a , () [ ] () () () () () welche mit der x-Achse den Winkel 2a - p2 einschließt1. Dabei ist l eine beliebige reelle Zahl und æ cos 2a - p2 ö æ sin 2a ö r ÷=ç ÷ r a =ç è sin 2a - p2 ø è - cos 2a ø ( ) ( ) ( ) ( ) ein Richtungsvektor der Geraden sowie X ein von l abhängiger Punkt auf g (a ). æ a ö + l æç sin(2a ) ö÷ . (1) g (a ): X = ç è r - a ÷ø è - cos(2a )ø () 2 2 Berücksichtigen wir weiters die Zusammenhänge () () a a2 cos a = Þ sin a = 1 - 2 , r r sowie die Winkeladditionstheoreme Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 ( ( ) ( ) () ( ) ( ) ( () () ) ) ( ( ) ) ( ( ( ) ( ) ( ( ) ) () () () ( ) ( ) ( ) ( ) ( ) anzuwenden. Dabei sind f (Dx ), g (Dx ) der Zähler und Nenner von m (Dx ) bzw. f ¢(Dx ), g ¢(Dx ) deren Ablei() ( ) a tungen. Nach kurzer Rechnung erhält man: m a (0 ) = 1 Man beachte: Für a gerechnet werden. ) ) ( ( ) ) ) ( ( ( ( ( () ( ) ) r 2 -a2 . 2 < 45 ° muss mit dem negativen Wert 2a - p2 45 ) ) ) Damit ergibt sich: ( ) = æçè Pa 0 ö- a ÷ø a r 2 r 2 2 -a 2 r2 æa r 2 - a 2 ö ç r2 ÷ ç - a 2 ÷. è 2 ø Dies kann zu æ ö a3 ç ÷ æx ö 2 r ÷ Pa ( 0 ) = ç ç æç 1 + a 2 ö÷ r 2 - a 2 ÷ = çè y ÷ø çè è 2 r 2 ø ÷ø (5) vereinfacht werden. Es stellen x und y die Koordinaten des Punktes Pa 0 dar. Wir wollen uns an dieser Stelle, um unser Vertrauen in die Berechnungen zu stärken, die Spezialfälle a = 0 und a = r anschauen. Einsetzen von a = 0 und a = r in Gleichung (5) liefert: æ 0ö ær ö P0 0 = çç r ÷÷ bzw. Pr 0 = ç ÷ . è 0ø è2ø Diese Ergebnisse scheinen, wenn man Abbildung 1 betrachtet korrekt zu sein. Im Prinzip sind wir mit Gleichung (5) in der Lage jeden Punkt auf der Einhüllenden der Katakaustik zu beschreiben. Wir können aber noch einen Schritt weiter gehen, denn es lässt sich wie folgt ein funktionaler Zusammenhang zwischen den Koordinaten x und y von Pa 0 aufstellen. Aus der ersten Zeile von Gleichung (5) folgt • Verzerrungen der realen Situation durch das Photographieren • Leichte Verzerrungen bei der digitalen Bildüberlagerung Wir können uns jetzt, da wir die Funktion für die Einhüllende kennen, fragen, welchen Flächeninhalt die Katakaustik hat. Die Fläche F zwischen der x-Achse und der Einhüllenden ist, unter Ausnützung der Symmetrie bzgl. der y-Achse, formal durch F () () () () = 3 2 (6). xr Da a Î 0; r ist auch x Î 0; r . Einsetzen von (6) in die zweite Zeile von Gleichung (5) ergibt a [ ] [ ] é xr 2 23 ù 1 ( ) ú y (x ) = ê + ê2 r 2 ú úû êë ( ) 2 r 2 - xr 2 3 . r r é ù = 2 ò y (x )dx = 2r ò ê 1 + æçè x ö÷ø ú 1 - æçè x ö÷ø 2 r r 0 0 ë û 1 é ù = 2r 2 ò ê 1 + u ú 1 - u du 2 0 ë û F = 2r 2 2 3 3 = æ dy ö÷ 2dx . è dx ø = r p + 2ò 1+ ç 0 [ ] dx 4 2 2 Da r 2p der Flächeninhalt eines Halbkreises mit Radius r ist, nimmt die Katakaustik genau ein Viertel der Fläche des Halbkreises ein. Die letzte Frage, die wir beantworten wollen, ist welchen Umfang U die Katakaustik hat. Mit der Halbkreisbogenlänge r p folgt formal: r umgeformt werden. Gleichung (7) gilt aus Symmetriegründen für alle x Î -r ; r . Damit haben wir eine Funktion gefunden, die die Einhüllende beschreibt. Zur Bestätigung der Berechnungen haben wir die Probe aufs Exempel gemacht. 3 5 ü1 ì é 1 ù ï 1 - u 23 ê - 3u 3 + u + u 3 ú + 3 arcsin æçu 13 ÷ö ï = ý í ê 8 4 2ú 8 è øï ïî úû êë þ0 3 r 2p = × . 2 U (7) 2 3 gegeben. In der letzten Gleichung haben wir die Substitution x = ru verwendet. Das letzte Integral haben wir mittels eines Computer-Algebra-Systems analytisch gelöst. „Hardcore-Integrierer“ können dies sicher händisch. Viel ;-) Spaß! Für F ergibt sich dann: Diese Gleichung kann noch zu é 1 æ x ö 23 ù æ x ö 23 y (x ) = r ê + ç ÷ ú 1 - ç ÷ êë 2 è r ø úû è r ø 2 Der zweite Term stellt die Bogenlänge der Einhüllenden dar. Differentiation von (7) liefert 2 dy dx 1 æx ö3 -ç ÷ 2 èr ø = 1 2 , (8) æç x ö÷ 3 1 - æç x ö÷ 3 èr ø èr ø woraus 1 æ dy ö÷ 2 = 2ö è dx ø æ 13 çæx ö æx ö3 ÷ 2ç ç ÷ 1 - ç ÷ ÷ èr ø ÷ çè è r ø ø 1+ ç folgt. Damit erhalten wir ò r 0 Abbildung 3 In Abbildung 3 sehen wir die Katakaustik aus Abbildung 1, der der Graph der Funktion aus Gleichung (7) sowie ein Halbkreis überlagert sind. Man erkennt, dass der Graph der Funktion (7) die Einhüllende sehr gut beschreibt. Die Ursachen für die leichte Ungenauigkeit vor allem auf der rechten Seite können folgende sein: • Nicht exakt halbkreisförmiger Reflektor • Nicht exakt paralleler Einfall der Lichtstrahlen zur Symmetrieachse des Reflektors 46 æ dy ö÷ 2dx = r ò0 è dx ø 1+ ç r 2 ò 1 0 du u 1 3 1 -u 2 3 4 ò = 3r 1 0 = dx æ x ö÷ èr ø 2ç 1 3 æ x ö÷ èr ø 1- ç = - 3r ds 1-s 2 1-s 2 3 1 0 = 3r , 2 2 3 wobei wir die Substitutionen x = ru und s = u verwendet haben. Die Bogenlänge der Einhüllenden ist daher 3r und der Umfang der Katakaustik ist U = r p + 3r = 3 + p r . ( ) Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 Zu guter Letzt wollen wir begründen, dass jeder reflektierte Strahl auf einer Tangente an die Einhüllende der Katakaustik liegt. Dazu stellen wir fest: 1. Zu jedem Strahl g a mit a Î 0; r gibt es nach Konstruktion einen Punkt Pa 0 = x y , der auf g a liegt und der die Gleichung (7) erfüllt. 2. Es ist g a Tangente an den Graphen der Funktion y x im Punkt Pa 0 . Wir sehen dies wie folgt: Ein3 setzen von x = ar2 aus der ersten Zeile von Gleichung (5) in (8) liefert: () () () () () dy dx () [ ] () ( ) = 2a 2 1- 2 r . 2a 2 2 r a r2 Es ist k a die Steigung der Tangente an den Gra3 phen der Funktion y an der Stelle x = ar2 . Aus dem Richtungsvektor æ 2a r 2 - a 2 ö ÷ æ r a, x ö r çr2 ÷=ç ÷ ra = ç 2 ç 1 - 2a ÷ è r a, y ø è ø r2 () in Gleichung (2) der Geraden g a , die durch den Punkt Pa 0 geht, folgt für die Steigung k a von g a : () ( )= r r a, y k a a, x 1- = 2a 2a r2 r 2 -a2 r2 () 2 () = dy . dx () 3. Für die zweite Ableitung von y x gilt für alle : d 2y dx 2 =- r 3 6x ( ) ( ) 1 3 2 3 é æ x ö 23 ù 2 ê1 - ç ÷ ú êë è r ø úû < 0. () () Dies bedeutet, dass der Graph der Funktion y x in x Î -r 0 È 0 r negativ gekrümmt ist. Somit liegen alle Tangenten „oberhalb“ des Graphen von y x . Damit beschreibt y x die Einhüllende der Katakaustik. () Liebe Leserin, lieber Leser, wir sind hiermit am Ende unserer Betrachtungen zur Katakaustik, die mit einem neugierigen, (wissens)durstigen Blick in ein leeres Kaffeeheferl begann. European XFEL Der European XFEL (X steht für Röntgen, FEL für Freie-Elektronen-Laser) verläuft zu einem großen Teil in bis zu 38 Metern tiefen Tunneln und benötigt für den Zugang drei Betriebsgelände. Er beginnt bei DESY in Hamburg-Bahrenfeld, wo der größte Teil der Versorgungstechnik steht und betrieben wird. Unter dem gelände Osdorfer Born verzweigt sich der Tunnel zum ersten Mal, unter dem dritten Gelände dann weitere Male, sodass im Ganzen fünf einzelne Lichtquellen errichtet werden können. Dieses mit 150.000 Quadratmetern größte der drei Areale wird der künftige Campus des neuen Forschungszentrums sein und liegt in der an Hamburg grenzenden schleswig-holsteinischen Stadt Schenefeld. Hier können internationale Wissenschaftlerteams ab 2015 an komplexen Instrumenten die intensiven Röntgenblitze für ihre Untersuchungen nutzen und Experimente durchführen. Die Tiefbauarbeiten für die 3,4 Kilometer lange Röntgenlaseranlage European XFEL haben im Jänner 2009 in Hamburg und Schenefeld (Kreis Pinneberg, Schleswig-Holstein) begonnen. Auf Hochtouren gearbeitet wird für den European XFEL allerdings schon seit einigen Jahren – dies sowohl beim Deutschen ElektronenSynchrotron DESY in Hamburg als auch bei den internationalen Partnern. Unter der Federführung von DESY wurde der supraleitende Elektronen-Linearbeschleuniger für den Röntgenlaser gemeinsam entwickelt und wird jetzt gemeinsam gebaut. In fünf Jahren ist es soweit: Der European XFEL erzeugt laserlichtartige Röntgenblitze mit Wellenlängen im Bereich von einem Zehntel eines Nanometers, und zwar bis zu 30.000 Mal in der Sekunde. Sie sind kürzer als unvorstellbare 100 Femtosekunden. Atomare Ein- Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010 zelheiten von unterschiedlichsten Materialien können entschlüsselt, chemische Reaktionen gefilmt, dreidimensionale Bilder aus der Nanowelt erzeugt und Vorgänge unter extremen Bedingungen wie im Inneren von Planten untersucht werden. „Dieses internationale Großgerät kann man sich als Hochgeschwindigkeitskamera vorstellen, die es der Forschung ermöglichen wird, aus dem Nanokosmos ‚live‘ zu empfangen“, schwärmt Professor Helmut Dosch, Vorsitzender des DESY-Direktoriums und des European-XFEL-Rats. Erkenntnisse in fast allen technisch-wissenschaftlichen Gebieten, die im Alltag eine Rolle spielen, sind zu erwarten – in Medizin, Pharmazie, Energietechnik, Chemie, Materialwissenschaft, Nanotechnologie oder Elektronik. „Die Ergebnisse werden die Entwicklung neuer Werkstoffe oder wirkungsvollerer Medikamente zur Folge haben.“ „Weltweit führen diese neuartigen Röntgenquellen zu einem Durchbruch in der Forschungslandschaft. Es ist für die internationale Wissenschaft von großer Bedeutung, nicht nur in Japan und den Vereinigten Staaten, sondern auch in Europa an so einer Anlage forschen zu können, zumal diese dann weltweit einzigartige Eigenschaften haben wird“, freut sich der Geschäftsführer der European XFEL GmbH, Professor Massimo Altarelli anlässlich des politischen Ereignisses im Hamburger Rathaus. „Die internationale Zusammenarbeit macht den European XFEL nicht nur finanzierbar, sondern bündelt auch Spezialwissen, Erfahrung und Talente für seine Entwicklung, seinen Bau und Betrieb“, so Altarelli weiter. „Sie ist die Voraussetzung für ein erfolgreiches Projekt und ist nun auch auf politischer und finanzieller Ebene besiegelt. Darüber freuen wir uns!“ 47 Status und Perspektiven der Astroteilchenphysik in Deutschland Am 25. und 26. Februar 2010 fand am Brandenburger Standort des Deutschen Elektronen-Synchotrons DESY in Zeuthen bei Berlin das sechste Treffen der deutschen Astroteilchenphysiker statt. Zusammen mit den USA und Frankreich nimmt Deutschland eine weltweite Spitzenstellung in der Astroteilchenphysik ein. Deutsche Forscher sind führend an den gegenwärtig größten internationalen Projekten der Astroteilchenphysik beteiligt, wie etwa dem Pierre-Auger-Observatorium für kosmische Strahlen in Argentinien, den Gammastrahl-Teleskopen H.E.S.S. in Namibia und MAGIC auf den kanarischen Inseln, oder dem IceCube-Detektor am Südpol. Dabei wollen sie so grundlegende Fragen klären, wie: • Was ist dunkle Materie, der geheimnisvolle Stoff, der fünfmal häufiger im Universum vorkommt als die „normale“ Materie? • Woher kommt die kosmische Strahlung, die unsere Atmosphäre mit einem ununterbrochenen Trommelfeuer von geladenen Teilchen überstreicht? • Welche Rolle spielen Neutrinos im kosmischen Geschehen? • Was werden uns Gravitationswellen über die Umgebung schwarzer Löcher lehren? Um diese Fragen zu beantworten, haben die Wissenschaftler weltweit verschiedenste Experimente installiert. Nicht nur am Südpol und in der argentimischen Pampa, sondern auch in den Tiefen des Mittelmeers und in Höhlen unter Bergmassiven, mit kilometerlangen Rennstrecken für Laserstrahlen und mit kompakten Nachweisgeräten auf Satelliten arbeiten sie auf neue, grundlegende Erkenntnisse hin. Für viele der riesigen 48 Geräte der nächsten Generation werden gegenwärtig die Weichen gestellt. Sie sollen in internationalen Kooperationen entwickelt und betrieben werden. Die Astroteilchenphysik ist ein rapide wachsendes Forschungsfeld an der Schnittstelle von Teilchenphysik, Astrophysik und Kosmologie. Das mittlerweile klassische Experiment auf diesem Gebiet – Kamiokande in Japan – war ursprünglich gebaut worden, um eine der fundamentalen Vorhersagen der Teilchenphysik, den Zerfall von Protonen, zu prüfen. Der Protonzerfall wurde nicht gefunden. Stattdessen maßen die Forscher Neutrinos von der Sonne und von einer Supernova und stießen das Fenster zur Neutrino-Astronomie auf. Für diesen spektakulären Erfolg gab es 2002 den Nobelpreis für Physik. „Ganz nebenbei“ stellte sich dabei aber auch heraus, dass Neutrinos eine Masse haben – eine fundamentale Entdeckung für die Teilchenphysik, die auch Auswirkungen auf unser Bild vom frühen Universum und vom Urknall hat. Die gegenwärtigen und zukünftigen Experimente der Astroteilchenphysik wollen diese Erfolgsgeschichte fortschreiben. Dabei werden sie hoffentlich nicht nur einige der gegenwärtig größten Rätsel des Universums lösen, sondern auch auf gänzlich Unerwartetes stoßen. Links mit näheren Informationen: • Informationen zur Konferenz: http://www.desy.de/AT2010 • Material zur Astroteilchenphysik: http://web.mac.com/jbluemer/KAT/KAT-Material+ Links.html • Die europäische Roadmap der Astroteilchenphysik: http://www.aspera-eu.org Wissenschaftliche Nachrichten Nr. 138 · Mai/Juni 2010