5 Grid Applications – Teil 2 - Distributed and Parallel Systems Group

Werbung
Leopold Franzens Universität
Innsbruck
Institut für Informatik
Seminar – Grid Computing
Wintersemester 2006/2007
SEMINARARBEIT (703321)
GRID APPLICATIONS
Name
Fabian Moser
Michael Rogger
Matrikelnummer
0416386
0416128
Dezember 2006
Lehrveranstaltungsleiter: Prof. Dr. Thomas Fahringer
ii
Grid Applications
1 ZUSAMMENFASSUNG
Dieses Dokument befasst sich mit dem Thema Grid Computing und Grid
Computing Applications. In dieser Seminararbeit behandelte Themen sind:
SETI@home ist ein Grid Computing Projekt und sucht das Weltall nach
Radiowellen ab die von außerirdischen Lebewesen stammen könnten.
Chess960@home ist Grundlagenforschung für diese neue Variante des
Schachspiels. Es soll ermittelt werden welche Position der Figuren zu welchen Spielsituationen führen.
LHC@home ist ein Grid Computing Projekt das Simulationen für einen
Teilchenbeschleuniger berechnet.
Rectlinear Crossing Number beschäftigt sich mit einem Problem der Graphentheorie. Konkret geht es dabei um die Frage wie man einen vollständigen Graph anordnet um die kleinste Anzahl an Überschneidungen von Kanten zu generieren.
The M4 Message Breaking Projekt ist ein Grid Computing Projekt und
beschäftigt sich mit dem entschlüsseln von 3 Nachrichten welche im Nord
Atlantik im Jahre 1942 von den Deutschen gesendet und von den Alliierten
empfangen wurden.
Triangles ist ein Grid Computing Projekt welches mathematisch ausgerichtet ist. Das Ziel ist es Dreiecke bestehend aus Zahlen zu konstruieren, wobei
die Wertigkeit der Zahlen und ihre Anordnung spezielle Anforderungen erfüllen muss.
Einstein@home ist ein Grid Computing Projekt welches die Existenz von
Gravitationswellen nach Albert Einstein zu beweisen versucht.
Cuboids ist ein Grid Computing Projekt welches sich mit fallenden und
aufprallenden Quadern befasst. Deren Wahrscheinlichkeit auf einer bestimmten Seite zu liegen wird festgehalten.
GPU ist ein Framework welches mit einer gehörigen Portion an Pioniergeist
versucht das Konzept von Tauschbörsen auf Grid Computing zu übertragen.
Geplante Projekte der nahen Zukunft gibt einen Ausblick welche interessanten Ansätze bzw. Applikationen für die nächsten Jahre geplant sind.
FABIAN MOSER, MICHAEL ROGGER
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
iii
2 INHALT
1 ZUSAMMENFASSUNG.......................................................................... II
2 INHALT ...................................................................................................III
3 EINLEITUNG ............................................................................................5
4 GRID APPLICATIONS – TEIL1 ..............................................................6
4.1 BOINC................................................................................................6
4.1.1 Übersicht .......................................................................................6
4.1.2 Das Projekt ....................................................................................6
4.1.3 Erfolg .............................................................................................6
4.1.4 Software ........................................................................................7
4.1.5 Bilder .............................................................................................9
4.2 SETI@home .....................................................................................11
4.2.1 Übersicht .....................................................................................11
4.2.2 Das Projekt ..................................................................................11
4.2.3 Erfolg ...........................................................................................11
4.2.4 Funktionalität ..............................................................................12
4.2.5 Software ......................................................................................12
4.2.6 Bilder ...........................................................................................12
4.3 Chess960@home ..............................................................................13
4.3.1 Übersicht .....................................................................................13
4.3.2 Das Projekt ..................................................................................13
4.3.3 Erfolg ...........................................................................................13
4.3.4 Funktionalität ..............................................................................13
4.3.5 Software ......................................................................................14
4.4 LHC@home .....................................................................................14
4.4.1 Übersicht .....................................................................................14
4.4.2 Das Projekt ..................................................................................14
4.4.3 Erfolg ...........................................................................................15
4.4.4 Funktionalität ..............................................................................15
4.4.5 Software ......................................................................................16
4.5 CPND ...............................................................................................16
4.5.1 Übersicht .....................................................................................16
4.5.2 Das Projekt ..................................................................................16
4.5.3 Erfolg ...........................................................................................17
GRID APPLICATIONS
iv
Grid Applications
4.5.4 Funktionalität .............................................................................. 18
4.5.5 Software ...................................................................................... 18
5 GRID APPLICATIONS – TEIL 2 .......................................................... 19
5.1 Rectilinear Crossing Number Projekt .............................................. 19
5.1.1 Übersicht ..................................................................................... 19
5.1.2 Beispiel für n=5 .......................................................................... 20
5.1.3 Aufwand / Resultate.................................................................... 20
5.2 Das M4 Message Breaking Project .................................................. 21
5.2.1 Übersicht ..................................................................................... 21
5.2.2 Funktionsweise der Maschine..................................................... 22
5.2.3 Beispiel einer Verschlüsselung mit Hilfe des Enigma-Simulators
23
5.2.4 Schlüsselraum ............................................................................. 24
5.2.5 Erfolg .......................................................................................... 25
5.3 Triangles........................................................................................... 26
5.3.1 Übersicht ..................................................................................... 26
5.3.2 Beispiel ....................................................................................... 27
5.3.3 Erfolge......................................................................................... 27
5.3.4 Screenshots des Programmes ...................................................... 28
5.4 Einstein@Home ............................................................................... 29
5.4.1 Übersicht ..................................................................................... 29
5.4.2 Erfolg .......................................................................................... 29
5.5 Cuboids ............................................................................................ 31
5.5.1 Übersicht ..................................................................................... 31
5.5.2 Funktionsweise ........................................................................... 31
5.5.3 Erfolg .......................................................................................... 32
5.5.4 Screenshots von Cuboid ............................................................. 33
5.6 GPU – Global Processing Unit ........................................................ 34
5.6.1 Einführung .................................................................................. 34
5.6.2 Skalierung ................................................................................... 35
5.6.3 Distributed Search Engine .......................................................... 35
5.6.4 Terragen Rendering + Beispiel ................................................... 36
5.7 Geplante Projekte für die nahe Zukunft ........................................... 37
5.7.1 PlayStation3 im Dienst der Medizin ........................................... 37
5.7.2 Photon Star Projekt ..................................................................... 38
6 LITERATUR- UND QUELLENVERZEICHNIS .................................. 40
FABIAN MOSER, MICHAEL ROGGER
5
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
3 EINLEITUNG
Dieses Dokument ist im Rahmen der Seminararbeit „Grid Computing“ an
der Universität Innsbruck im Wintersemester 2006 von Michael Rogger und
Fabian Moser erstellt worden. Betreuer ist war der Professor Dr. Thomas
Fahringer. Die Seminararbeit baut auf 4 vorhergehenden Arbeiten auf und
ist deshalb nicht als Einführung in Grid Computing zu betrachten sondern
viel mehr als aufbauendes Dokument welches im Grid Computing Projekte
und deren Einsatzgebiete im Detail vorstellt.
Weiters soll noch ein kleiner Ausblick in zukünftige Projekte gewährt .
Sollten sie dieses Dokument nur mit geringem Verständnis für Grid Computing lesen wollen, empfiehlt es sich folgende Bergriffserklärung zu lesen.
Sollten Sie über genügend Vorwissen verfügen können sie gerne folgenden
Absatz mit ruhigem Gewissen überspringen.
Wir wünsche ihnen noch viel Spaß beim Lesen und dass sie dieses Dokument mit vielen neuen, interessanten Informationen bereichert.
Wikipedia zum Begriff Grid-Computing:
Der Begriff Grid-Computing stammt von der englischen Bezeichnung für
das Stromnetz, dem Power Grid. Die Idee des Grid Computings ist dabei
die Rechenleistung - ähnlich wie elektrischen Strom - "aus der Steckdose"
vom Grid beziehen zu können. Der User übergibt seinen Auftrag über genormte Schnittstellen ans Grid, woraufhin die Ressourcenallokation automatisch erfolgt.
Das Grid-Computing umfasst alle Methoden, die Rechenleistung vieler
Computer innerhalb eines Netzwerks so zusammenzufassen, dass über den
reinen Datenaustausch hinaus die (zeitlich parallele) Lösung von rechenintensiven Problemen ermöglicht wird (verteiltes Rechnen). Dies beinhaltet
auch die Themen Sicherheit (Authentifizierung und Datenverschlüsselung),
Zusammenarbeit in virtuellen Organisationen sowie Softwareverteilmechanismen.
Damit kann, zu deutlich geringeren Kosten, sowohl die Kapazität als auch
die Rechenleistung heutiger Supercomputer übertroffen werden. GridSysteme skalieren sehr gut: durch Hinzufügen von Rechnern zum Netz (oder
hierarchisches Zusammenfassen von Grids) erhöht sich die Rechenleistung
in entsprechendem Maße, jedoch nicht linear.
GRID APPLICATIONS
6
Grid Applications
4 GRID APPLICATIONS – TEIL1
4.1 BOINC
4.1.1 Übersicht
BOINC steht für Berkeley Open Infrastructure for Network Computing und ist eine
Softwareplattform für verteiltes Rechnen. Die
Plattform ermöglicht es, die ungenutzte Rechenleistung von vielen tausend Computern
über das Internet verfügbar zu machen.
4.1.2 Das Projekt
BOINC ist auf dem Erfahrungsschatz von SETI@home entstanden, welches
man fast als Mutter aller Grid Computing Projekte einstufen kann. Grundidee von BOINC war und ist es Wissenschaftlern auf aller Welt den Zugang
zum Verteilten Rechnen einfach zu ermöglichen. Dabei ist das Hauptziel die
Trennung der Projektverwaltung von den wissenschaftlichen Inhalten. Mit
dieser Software kann jetzt die freie Rechenleistung eines Rechners dynamisch über nur einen Client auf mehrere Grid Computing Projekte aufgeteilt
werden. Dies stellt eine wichtige Verbesserung gegenüber an nur ein Projekt
gebundenen Clients dar, da viele Distributed-Computing-Projekte nicht über
genügend Arbeit verfügen, um eine große Benutzerbasis ausreichend zu versorgen. Wenn ihre Rechner leer laufen, werden die teilweise sehr enthusiastischen Teilnehmer unzufrieden. Um dies zu vermeiden gibt es natürlich
auch andere aber unverhältnismäßig schlechtere Lösungen. Bei
SETI@home wurden zum Beispiel bis zu zwölf mal die selben Berechnungen an Client geschickt obwohl nur 3 Berechnungen maximal nötig waren.
Es liegt also auf der Hand die Rechnerzeit an andere Projekte zu verteilen
falls andere gerade keine Daten zur Berechnung zur Verfügung haben.
4.1.3 Erfolg
Der Erfolg von BOINC ist immens. BOINC hat es nun möglich gemacht
auch kleine Projekte, die den Aufwand eine vollständige Grid Anwendung
zu programmieren niemals rechtfertigen könnten, grid – reif zu machen. Mit
diesem Framework muss nun nur mehr die eigentliche Berechnunksoftware
angepasst werden und mit etwas Verteilung- und Verwaltungs- Know-How
erweitert werden und schon hat man eine lauffähige Grid Anwendung.
Trotzdem bietet BOINC genügend Spielraum für mitunter auch sehr komplexe Anwendungen mit grafischen Spielereien etc.
Projekte
FABIAN MOSER, MICHAEL ROGGER
Benutzer Rechner
Teams
Länder
7
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
BOINC kombiniert
878,187
1,554,484
55,956
238
SETI@Home
Einstein@Home
Rosetta@Home
570,878
150,342
101,356
1,246,595
313,718
234,012
45,356
6,304
4,180
229
195
188
Climate Prediction
102,141
191,077
4,167
184
BBC Climate Change
119,684
135,042
1,139
99
Predictor@Home
LHC@Home
54,793
33,245
132,038
72,359
2,960
1,992
167
139
World Community Grid
26,294
67,471
3,453
144
SIMAP
13,782
32,788
1,017
127
9,241
31,248
786
106
11,432
3,638
8,193
3,712
2,617
4,559
21,344
14,285
12,893
12,060
11,041
9,912
821
387
586
514
448
433
118
89
101
77
74
94
SZTAKI Desktop Grid
QMC@Home
Chess960@Home
Spinhenge@home
uFluids
PrimeGrid
Tanpaku
Abbildung 1: TOP 18 Boinc Projekte
4.1.4 Software
Die Software ist von der Universität Berkeley entwickelt worden und steht
momentan in der Version 5.4.11 (10.12.06) zur Verfügung. Es ist so gut wie
unter allen Betriebsystemen lauffähig und steht in unter der GPL/LGPL Lizenz.
Teilnehmerseitig besteht die Software aus einen Core-Client, dem BOINC
Manager und oder dem BOINC-Commandline-Interface.
 Der Core-Client ist ein auf dem Teilnahmerechner laufendes Kommandozeilenprogramm welches die wissenschaftlichen Anwendungen
gemäß den Vorgaben des Teilnehmers steuert und überwacht. Er puffert Arbeitspakete und kommuniziert mit den Schedulern und Datenservern der Projekte.
 Der BOINC Manager ist eine grafische Oberfläche welche zur Konfiguration und Überwachung des Core-Clients dient.
 Das BOINC-Commandline-Interface erlaubt es den Core-Client über
Kommandozeile zu steuern. Dies ist notwendig wenn etwa keine grafische Oberfläche wie bei Servern zur Verfügung steht.
GRID APPLICATIONS
8
Grid Applications
Projektseitig besteht die Software aus Scheduler, Datenserver, Validator,
Assimilator, File-Deleter, Splitter, Transitioner
 Der Scheduler läuft auf dem Webserver des Projekts. Er teilt den
Teilnehmer – Clients ihre Arbeitspakete zu und nimmt nach getaner
Arbeit eine kurze Meldung über Erfolg/Misserfolg entgegen. Über alle Aktivitäten führt er in der Datenbank Buch.
 Datenserver: Ein http-Server, von dem die Clients ihre vom Scheduler
zugeteilten Arbeitspakete herunterladen und die Ergebnisdateien
hochladen.
 Der Validator prüft die von den Clients zurückgelieferten Ergebnisdateien auf Korrektheit. Meist geschieht dies dadurch, dass ein Arbeitspaket von mehreren Teilnehmern redundant bearbeitet wird. Der Validator vergleicht dann die Ergebnisse. Idealerweise sind sie identisch.
 Assimilator: Ein projektspezifisches Programm. Nimmt validierte
Ergebnisdateien und bereitet sie zur weitergehenden wissenschaftlichen Analyse auf. Dazu können die Ergebnisse beispielsweise in eine
weitere Datenbank archiviert werden.
 File-Deleter: Nachdem die Ergebnisse "assimiliert" wurden sind die
Input- und Output-Dateien der Clients unnötiger Ballast für den Datenserver, die durch ihre Anzahl auch seine Performance beeinträchtigen können. Mit dem File-Deleter werden nicht mehr benötigte Dateien vom Server gelöscht.
 Splitter: Projektspezifisches Programm. Sorgt für den Nachschub an
Arbeitspaketen. Bei Projekten, die einen finiten Datenbestand analysieren, teilt er den Datenbestand in handliche Arbeitspakete auf. Bei
anderen Projekten erzeugt der Splitter anhand bestimmter Parameter
automatisch immer neue Arbeitspakete. Der Arbeitsvorrat ist bei solchen Projekten potenziell unendlich.
 Transitioner: Der Transitioner überwacht den Fortschritt der Arbeitspakete entlang einer gedachten "Pipeline". So stößt er beispielsweise den Validator an, wenn er feststellt, dass zu einem Arbeitspaket
genügend redundante Ergebnisse vorliegen, so dass mit der Validierung begonnen werden kann.
FABIAN MOSER, MICHAEL ROGGER
9
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
4.1.5 Bilder
Abbildung 2: Boinc, Laufende Aufgaben
Abbildung 3: Boinc - Laufende Projekte
GRID APPLICATIONS
10
Grid Applications
Abbildung 4: Boinc Statistiken über laufende Projekte
FABIAN MOSER, MICHAEL ROGGER
11
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
4.2 SETI@home
4.2.1 Übersicht
SETI@home (Search for extraterrestrial intelligence at home, englisch für
„Suche nach außerirdischer Intelligenz zu Hause“) ist ein distribiuted computing Projekt und wurde von der University of California, Berkley ins Leben gerufen und gehosted. Am 17 Mai 1999 wurde es der Öffentlichkeit Zugänglich gemacht.
4.2.2 Das Projekt
SETI@home verarbeitet Radiosignale aus dem All und untersucht ob es sich
möglicherweise um Signale von anderen Lebewesen handelt. Dabei wird
aber nicht wie bei herkömmlichen SETI-Projekten ein eigenes Radioteleskop eingesetzt sondern man hat stattdessen ein bestehendes Radioteleskop
das zu astronomischen Beobachtungen dient mit einem zusätzlichen Empfänger ausgestattet der die Daten in das Grid speist und in Folge von der
SETI@home Gemeinde verarbeitet werden.
4.2.3 Erfolg
Die gesamte Rechenleistung des SETI-Grids liegt gegenwärtig bei wenig
mehr als 200 TeraFLOPS ( im Vergleich Weltbester Supercomputer eServer
BlueGene (IBM) 280,6). Seit 1999 haben die Grid - Member zusammen 2,3
Millionen Jahre Rechnerzeit erbracht. In der selben Zeit sind ungefähr 1,84
Milliarden Reslutate von mehr als 5,4 Millionen Benutzern retourniert worden. Ergänzend muss aber angeführt werden dass nur ca. eine halbe Million
Mitglieder im Durchschnitt aktiv sind.
Obwohl das SETI@home Projekt bis heute noch keinen eindeutigen Beweis
für die Existenz von außerirdischen Lebewesen erbracht hat, kann man es
dennoch als Mutter aller folgenden Projekte bezeichnen da mit diesem Projekt bewiesen wurde dass private Computer durchaus für den Einsatz im
Grid geeignet sind und sich zu einer günstigen und ebenbürtigen Alternative
für Supercomputer gemausert haben.
GRID APPLICATIONS
12
Grid Applications
4.2.4 Funktionalität
Das Programm führt hauptsächlich drei Tests mit den empfangenen Daten
durch:
 Suche nach Gaußschen Anstiegen und Fällen der Übertragungsleistung, die möglicherweise auf eine Radioquelle hindeuten
könnten.
 Suche nach Pulsen, die eine schmalbandige Digital-artige
Transmission sein könnten
 Suche nach Tripeln, also drei Pulsen nacheinander
4.2.5 Software
Das Programm wurde am 22. Juni 2004 auf eine neue Software – Plattform
portiert. Das vom SETI@home-Team entwickelte BOINC stellt eine allgemeine Plattform für verschiedene Distributed-Computing-Anwendungen
dar. Mit der Umstellung soll eine Basis geschaffen werden, das
SETI@home-Projekt flexibel erweitern zu können. Konkret heisst das, dass
Algroithmen on-the-fly nachgeladen werden können ohne zum Beispiel eine
neue Version der Software downloaden zu müssen. Weiters ist auch möglich
mehrere Algorithmen, die an verschieden Projekten arbeiten, im selben Client laufen lassen zu können.
4.2.6 Bilder
Abbildung 5: SETI@home Grafische Darstellung der Daten
FABIAN MOSER, MICHAEL ROGGER
13
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
4.3 Chess960@home
4.3.1 Übersicht
Ziel des Grid Computing - Projekts Chess960@home ist es
Grundlagenforschung für diese
neue Variante des Schachspiels zu
betreiben. Es soll ermittelt werden
welche Position der Figuren zu
welchen Spielsituationen führen.
4.3.2 Das Projekt
Fischer Random Chess, auch Chess960 genannt, ist eine von SchachGroßmeister Bobby Fischer entwickelte Schachvariante mit 960 möglichen
unterschiedlichen Ausgangsstellungen / Eröffnungen. Ziel war es, eine
Schachvariante zu entwickeln, die mehr Gewicht auf die Kreativität und das
Talent des Spielers legte, als auf das Auswendiglernen und Analysieren von
Eröffnungen.
Aus dem Grund, dass es in der Natur der Wissenschaft liegt unbelegbare
Kreativität soweit möglich durch belegbare Statistiken zu ersetzen ist wohl
dieses Grid Computing Projekt entstanden. Das Ziel des Projekts ist es aus
den verschiedenen Eröffnungspositionen verschiedene günstige Spielvarianten heraus zu kristallisieren.
4.3.3 Erfolg
Das Projekt hat bis jetzt noch keine nennenswerte Erfolge erzielt das es erst
seit Juni ´06 läuft.
4.3.4 Funktionalität
Um die Funktionalität des Programms zu verstehen ist ein Minimum an
Grundwissen über die Regeln des Spiels notwendig. Folgende gilt es zu verstehen:
GRID APPLICATIONS
14
Grid Applications




Die weißen Bauern stehen auf
ihren üblichen Positionen.
Alle übrigen weißen Figuren
stehen in der ersten Reihe.
Der weiße König steht zwischen den weißen Türmen.
Ein weißer Läufer steht auf
weiß, der andere auf schwarz.
Die schwarzen Figuren werden
entsprechend den weißen spiegelsymmetrisch platziert. Steht zum
Beispiel der weiße König auf b1,
so wird der schwarze König auf
b8 gestellt
Abbildung 6: Eine mögliche Position
4.3.5 Software
Das Programm verteilt Spiele an, an das Grid angeschlossene Computer und
lässt diese von folgenden durchspielen und lässt sich die Ergebnisse returnieren. Der Server erstellt dann Statistiken über günstige Ausgangspositionen für „Weiss“ und „Schwarz“. Die Software basiert auf dem schon bekannten BOINC der Berkeley Universität.
4.4 LHC@home
4.4.1 Übersicht
LHC@home ist ein Grid Computing Projekt das Simulationen für einen
Teilchenbeschleuniger berechnet und deren Misslingen oder Erfolg retourniert an CERN (European Organization for Nuclear Research)
4.4.2 Das Projekt
LHC steht für „Large Hadron Collider” und ist ein Teilchenbeschleuniger
der im kommenden Jahr zwischen Schweiz und Frankreich gebaut werden
soll. Er wird in schon ein bestehendes Tunnelsystem gebaut werden und
FABIAN MOSER, MICHAEL ROGGER
15
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
wird dann der stärkste und größte Teilchenbeschleuniger der gesamten Welt
sein. Ein Mitgrund ist dass supraleitende Magneten verwenden werden die
erst
mals ermöglichen sehr schwere Bleiionen mit annähern Lichtgeschwindigkeit im Teilchenbeschleuniger kreisen und kollidieren zu lassen.
Nun soll vorab berechnet werden wie die Magneten einzustellen sind um ein kollidieren der Teilchen
mit der Wand des Teilchenbeschleunigers zu vermeiden. Da dieser bereich der Forschung noch sehr
wenig Wissen besitzt sind zahllose Versuche notwendig um auf brauchbare Ergebnisse zu stoßen.
Abbildung 7: LHC Grafische Übersicht über das Tunnelsystem von LHC
4.4.3 Erfolg
Das Projekt hat sich als voller Erfolg herausgestellt und hat mittlerweile
über 32000 angemeldete Benutzer und über 65000 angemeldete PCs. Diese
Anzahl an Benutzern ist auch notwendig denn die Vorbereitung für die realen Versuche produziert pro Jahr 15 Petabytes (15 Millionen Gigabytes) von
Daten die immer wieder stoßweise auf die User einprasseln.
4.4.4 Funktionalität
Genaue Algorithmen der Software sind mir leider nicht bekannt, höchstwahrscheinlich aber sehr komplex und würden den Rahmen dieser Arbeit
sicherlich sprengen.
GRID APPLICATIONS
16
Grid Applications
Abbildung 8: Bildschirmschoner LHC@home
4.4.5 Software
Die Software basiert auf dem schon bekannten BOINC der Berkeley Universität. Die Software verteilt Versuchsdaten an die Benutzer welche auf
ihren PCs die Simulation des Versuchaufbaus durchführen. Dabei kann es
vorkommen dass Arbeitspakte sehr schnell abgearbeitet sein können. Das
liegt daran dass wenn Protonen in der Simulation sofort gegen die Wand des
Teilchenbeschleunigers prallen, die Berechnung sofort abgebrochen wird.
Diese Daten sind für die Forscher genauso wichtig wie erfolgreiche Resultate die dem Projektserver retourniert werden.
4.5 CPND
4.5.1 Übersicht
CPND steht für „Climate Prediction Dot Net“. Ziel dieser Grid Computing
Anwendung ist es Modelle zu entwickeln mit denen sich das Wetter für die
kommenden 50 Jahre annähernd vorausberechnen lässt. Wichtig ist das vor
allem für Nahrungsmittel-, Wasser- und Energiegewinnung.
4.5.2 Das Projekt
Das Grid Computing Projekt CPND wurde von der Universität Oxford entwickelt, damit man ein Modell zur Klimavorhersage besitzt, das dem neuesten Stand der Technik entspricht und das man auf Heim-, Schul- oder Arbeitscomputer laufen lassen kann. Es werden Daten von mehreren tausend
Klimamodellen gesammelt und so wird dieses Projekt zu einem der weltFABIAN MOSER, MICHAEL ROGGER
17
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
größten Experimente in Sachen Klimavorhersage. Mit dem Primärziel das
Klima bis zu 100 Jahre voraussagen zu können möchte man damit auch einen Beitrag bzw. Verbesserung der aktuell verwendeten Klimamodelle erreichen, da noch bei weitem nicht alle Wechselwirkungen und Zusammenhänge im Klima bekannt sind. Das Projekt wird gesponsert von NERC (Natural Environment Research Council), dti (UK), EU, Microsoft, Met Office,
Coapec.
4.5.3 Erfolg
Das Projekt hat bis jetzt 2 Stufen durchlaufen. In der Ersten wurde getestet
ob eine solche Berechnung überhaupt den erhofften Nutzen bringt oder ob
das Wetter zu instabil ist, dass eine weit reichende Berechnung überhaupt
einen Sinn hat. Abgeschlossen mit Erfolg
Abbildung 9 Bildschirmschoner von CPDN
Der zweite Teil lief im Jahr 2005 und baute darauf auf, ein Modell zu finden
das sich auf die vergangen 50 Jahren, über die man über aufgezeichnete Daten verfügt, anpassen lässt. Wiederum abgeschlossen mit Erfolg.
Der dritte und aktuelle Teil läuft seit Februar 2006 und versucht Modelle für
die Jahre 2000-2100 zu entwickeln welche wiederum nach einem bestimmten Ranking gewichtet werden. Einige Grid - Rechner werden mit speziellen
GRID APPLICATIONS
18
Grid Applications
Berechnungen beauftragt welche zum Beispiel eine Simulation des Schwefel
– Kreislaufs der Erde simulieren.
4.5.4 Funktionalität
Das Programm versucht ein Klimamodell zu finden die sich auf die letzten
50 Jahre gesammelten Klimadaten anpassen lässt. In der Hoffnung dass
wenn man ein passendes Model findet sich damit auch die nächsten 50 Jahre
Klima berechnen lassen. Das Experiment befasst sich mit Daten über Temperatur, Regen & Schnee, Luftdruck und Wolkenbildung.
Abbildung 10: Links Auflösung von cpdn@home, Rechts die Auflösung eines lokalen Wetterdiensts
4.5.5 Software
Die Software baut auf das BOINC Framework auf und kommt mit einem auf
realen Berechnungen basierendem, grafischen Modell der Klimaentwicklung installiert welches sich per Knopfdruck persönlich konfigurieren lässt.
FABIAN MOSER, MICHAEL ROGGER
19
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
5 GRID APPLICATIONS – TEIL 2
5.1 Rectilinear Crossing Number Projekt
5.1.1 Übersicht
Dieses Projekt beschäftigt sich mit einem Problem der Graphentheorie. Man
betrachtet immer vollständige Graphen1, d.h. im Graphen ist jede Ecke mit
jeder anderen Ecke über eine Kante verbunden.
Abbildung 11: Vollständiger planarer Graph mit 4 Ecken
Wenn n die Anzahl der Eckpunkte eines Graphen bezeichnet, dann ist bis zu
n=4 ein planarer2 Graph (ohne Kanten Überschneidungen) möglich. Siehe
Beispiel für n=4 in Abbildung 11.
Da mit mehr als 4 Eckpunkten keine planare Darstellung mehr möglich ist,
versucht man Graphen für n>4 zu finden welche eine möglichst optimale(geringe) Kanten-Überschneidung besitzen.
Das Projekt verwendet das beliebte und häufig verwendete Open-Source
BONIC Infrastruktur der Universität Berkeley, welches den Client bereits
zur Verfügung stellt.
1
2
Vollständiger Graph: http://de.wikipedia.org/wiki/Vollst%C3%A4ndiger_Graph
Planerer Graph: http://de.wikipedia.org/wiki/Planarer_Graph
GRID APPLICATIONS
20
Grid Applications
5.1.2 Beispiel für n=5
In Abbildung 12 wird ein Beispiel gezeigt für 3 vollständige Graphen mit 5
Ecken welche isomorph3 sind,
bei konvexer Anordnung (3ter Graph von links nach rechts) ergeben sich 5
Überschneidungen. Die optimale Lösung besteht darin die 5 Eckpunkte so
anzuordnen, dass nur eine Überschneidung auftritt (Abbildung 12 linker
Graph).
Abbildung 12: drei isomorphe vollständige Graphen mit n=5
Hinweis: Es gibt keine Möglichkeit einen Graphen mit 5 Eckpunkten (auch
wenn Kurven erlaubt wären) so anzuordnen, dass keine Überschneidung der
Kanten auftritt.
Bei konvexer Anordnung (in einem Kreis) ist die Kantenüberdeckung immer maximal.
5.1.3 Aufwand / Resultate
Das Problem bei der Berechnung ist der exponentielle Anstieg des Aufwandes bezüglich der Eckpunkte. Bei einer Anzahl von 11 Punkten ergeben sich
schon mehr als 2 Milliarden verschiedene Kombinationen zur Anordnung.
Bereits in den 60er Jahren wurde nach solchen optimalen Graphen gesucht,
im Jahre 2004 wurde das Problem für n=11 gelöst.
Das Distributed Computing Projekt war bisher für n <= 17 erfolgreich. Der
aktuelle Fokus liegt bei n=18.
3
Isomorpher Graph: http://de.wikipedia.org/wiki/Isomorphie_von_Graphen
FABIAN MOSER, MICHAEL ROGGER
21
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
5.2 Das M4 Message Breaking Project
5.2.1 Übersicht
Das Distributed Computing Projekt „The M4 Message Breaking Project“
beschäftigt sich mit dem entschlüsseln von 3 Nachrichten welche im Nord
Atlantik im Jahre 1942 empfangen wurden. Die Signale wurden für nicht
entschlüsselbar eingestuft. Erstmals im Jahre 1995 (Dezember) wurden die
Signale in der Fachzeitschrift Cryptologia von Ralp Erskine präsentiert. Die
Signale wurden zur damaligen Zeit mit der de/chiffrier Maschine Enigma4
(Abbildung 13) entschlüsselt. Die Maschine wurde kommerziell in den 20er
verwendet, auch vom Militär (von verschiedenen Nationen) fand sie Verwendung. Die berühmteste Verwendung war von Nazi Deutschland vor und
nach dem 2ten Weltkrieg, diese spezielle Version der Maschine wurde als
Wehrmacht Enigma bezeichnet.
4
http://en.wikipedia.org/wiki/Enigma_machine
GRID APPLICATIONS
22
Grid Applications
Abbildung 13: Enigma - deutsche Version
5.2.2 Funktionsweise der Maschine
Es stehen unterschiedliche Walzen zur Verfügung welche mit römischen
Zahlen von 1 bis 5 durchnummeriert sind. Für unterschiedliche Tage sind
verschieden Walzen vorgesehen, welche von einer geheimen Tabelle ausgelesen werden.
Beispiel für den Abriss der geheimen Tabelle:
Tag UKW
31 B
30 B
29 B
Walzenlage
I
IV III
II V I
III I IV
Ringstellung
16 26 08
18 24 11
01 17 22
---- Steckerverbindungen ---AD CN ET FL GI JV KZ PU QY WX
BN DZ EP FX GT HW IY OU QV RS
AH BL CX DI ER FK GU NP OQ TY
Die Walzen wurden von links nach rechts in die Maschine eingesetzt.
UKW=B bedeutet, dass die Umkehrwalze B zu wählen ist.
Abbildung 14: Walzen
Der Linke Rotor läuft langsam, wobei die Walze ganz rechts am schnellsten
laufen.
Die Ringstellung ist in Zahlen angegeben und entspricht der Stellung der
Buchstaben im Alphabet, d.h. für den 31. Tag ist die Ringstellung auf
16,26,08 eingestellt. Das bedeutet an den Walzen muss man P,Z und H einstellen.
An der Vorderseite der Maschine befindet sich eine Steckkarte(Abbildung
15: Plugboard einer Enigma Maschine), es wurden üblicherweise 10 Kabel
eingesteckt, Stecker konnten nur in einer Orientierung eingesteckt werden
(wurde mit unterschiedlich großen Einstecklöchern realisiert).
FABIAN MOSER, MICHAEL ROGGER
23
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
Abbildung 15: Plugboard einer Enigma Maschine
5.2.3 Beispiel einer Verschlüsselung mit Hilfe des Enigma-Simulators5
Die Enigma Maschine kann nur Buchstaben ver-/entschlüsseln, d.h. keine
Leerzeichen, Sonderzeichen oder Zahlen sind möglich. Aus diesem Grund
muss der Text an erster Stelle zur Verschlüsselung angepasst werden.
Der zu verschlüsselnde Text lautet: „Michael Rogger“
Nach einer einfachen Anpassung ergibt sich folgender Text:
„MICHA ELROG GER“
Ich verwende die oben aufgezeigte geheime Tabelle für den 31ten Tag des
Monats. Nun wird der entsprechende Walzenschlüssel auf I, IV, III eingestellt, als Ringstellung entnimmt man für denselben Tag (31) folgende Werte: 16, 26, 08. Die Steckverbindung ist ebenfalls für den jeweiligen Tag in
der Tabelle angegeben: AD CN ET FL GI JV KZ PU QY WX
Nun überlege ich mir eine beliebige Grundstellung, zum Beispiel „QWE“.
Diese Grundstellung übertrage ich auf die Walzen.
Nun wird ein zufälliger Spruchschlüssel erfunden, Beispiel „RTZ“. Dieser
wird mit der Enigma Maschine verschlüsselt. Man erhält „EWG“.
„QWE EWG“ wird unverschlüsselt übertragen. Früher üblicherweise mit
Morsecode.
5
Enigma Simulator für Windows: http://users.telenet.be/d.rijmenants/en/enigmasim.htm
GRID APPLICATIONS
24
Grid Applications
Aus einer Kenngruppentabelle wird noch eine für den Tag gültige Kennung
ausgewählt, in diesem Beispiel „Now“. Zur Tarnung wird diese permutiert
und um zwei zufällige Buchstaben ergänzt. So wird aus „NOW“ -> „OWN“
-> „XYOWN“. Diese Buchstabenreihenfolge wird unverschlüssselt dem
Geheimtext vorangestellt.
Nun stelle ich die drei Walzen der Enigma Maschine auf den Spruchschlüssel „RTZ“ und verschlüssle den oben genannten Text.
Nun teilt man dem Empfänger folgende Nachricht mit:
„XYOWN COUZV SFIWJ SQF“
Nun die Entschlüsselung:
Der Empfänger überprüft die Länge der Zeichen, aus den ersten 5 Buchstaben lässt er die ersten 2 wegfallen. Die übrigen 3 Buchstaben sortiert er aufsteigend. Stimmt der Schlüssel mit dem Tagesschlüssel überein, wir der
übermittelte String „QWE EWG“ verwendet.
„QWE“ wird als Grundstruktur eingetragen und EWG in die Tastatur eingetippt. Nun erhält man die Buchstaben RTZ welche nun als Grundstellung für
die Entschlüsselung des verschlüsselten Textes verwendet wird.
Der letzte Schritt besteht noch darin den verschlüsselten Text „COUZV
SFIWJ SQF“ (ohne die ersten 5 Zeichen) per Tastatur einzugeben und somit
den Text zu entschlüsseln.
Als Resultat erhält man erwartungsgemäß wieder „MICHA ELROG GER“
und somit ist die Prozedur abgeschlossen.
5.2.4 Schlüsselraum
Die gesamten möglichen Kombinationen betragen bei 5 Walzen, einer von 2
Umkehrwalzen, 10 Verdrahtungen: 2*10^23 ~ 77bit.
Im Vergleich dazu verfügt DES über 56Bit, ist jedoch nur eine notwendige
aber nicht hinreichende Bedingung für Sicherheit!
Mit Hilfe einer sogenannten „Turing-Bombe“ (Abbildung 16) wurden solche Verschlüsselungen von der USA geknackt.
FABIAN MOSER, MICHAEL ROGGER
25
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
Abbildung 16: Turing Bombe - knackt Enigma Codes
Das M4 Projekt verwendet nicht nur eine Brute-Force Methode (der Adressraum wäre zu groß) sondern kombiniert die Methode mit einem so genannten Climbing Algorithmus, welcher eine Optimierung des Steckboardes versucht.
5.2.5 Erfolg
Am 20 Februar 2006 wurde eine Nachricht entschlüsselt, die zweite wurde
am 7 März 2006 geknackt. Eine der 3 Nachrichten ist noch ausständig!
259080 / 5434920 work units done.
1te Nachricht:
Verschlüsselter Text:
nczwvusxpnyminhzxmqxsfwxwlkjahshnmcoccakuqpmkcsmhkseinjusblkiosxckubhmllx
csjusrrdvkohulxwccbgvliyxeoahxrhkkfvdrewezlxobafgyujqukgrtvukameurbveksuh
hvoyhabcjwmaklfklmyfvnrizrvvrtkofdanjmolbgffleoprgtflvrhowopbekvwmuqfmpwp
armfhagkxiibg
Von Looks:
Funktelegramm 1132/19 Inhalt:
GRID APPLICATIONS
26
Grid Applications
Bei Angriff unter Wasser gedrueckt, Wasserbomben. Letzter Gegnerstandort
08:30 Uhr, Marqu AJ 9863, 220 Grad, 8 Seemeilen, stosse nach. 14 Millibar
faellt, NNO 4, Sicht 10.
2te Nachricht:
Verschlüsselter Text:
tmkfnwzxffiiyxutihwmdhxifzeqvkdvmqswbqndyozftiwmjhxhyrpaczugrremvpanwxgtkthn
rlvhkzpgmnmvsecvckhoinplhhpvpxkmbhokccpdpevxvvhozzqbiyieouseznhjkwhydagtxdjd
jkjpkcsdsuztqcxjdvlpamgqkkshphvksvpcbuwzfizpfuup
0425
Ausgang FT. 0246/21/203:
Auf Geleitkurs 55° nichts gefunden, marschiere befohlenes Qu. Standort Marqu. AJ 3995.
SO 4, See 3, 10/10 bedeckt, 28 mb steigend,
Nebel, Sicht 1 sm.
Schroeder
5.3 Triangles
5.3.1 Übersicht
Dieses Projekt ist durch einen Programmierwettbewerb entstanden. Wie der
Name schon vermuten lässt geht es um Dreiecke, also um Zahlen Dreiecke.
Folgen gelten als akzeptabel wenn keine darauf folgenden Folgen doppelt
vorhanden sind. Das Dreieck im später genannten Beispiel ist somit nicht
akzeptabel.
Es gibt von einer Folge mehrere akzeptable Dreiecke, diese werden über die
so genannte Spannweite klassifiziert. Das größte und das kleinste Element
definieren hierbei die Größe.
Definiertes Ziel: Finden minimaler Spannen in bestimmten Folgen
FABIAN MOSER, MICHAEL ROGGER
27
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
5.3.2 Beispiel
Zunächst betrachten wir ein Dreieck mit folgendem Aufbau:
10
10
20
20
30
10
Gestartet wird mit der unteren Folge (20,30,10), die Elemente über der Folge ergeben sich immer aus dem Betrag der Differenz der zwei unterliegenden Elemente.
Das obere Beispiel gilt als nicht akzeptabel, da 10 und 20 mehrmals vorkommen. Vier akzeptable und gleichzeitig auch optimale Dreiecke sind:
2
13
3
41
265
3
47
59 2
6 1 10 8
5
4 9
7 11 2
8 1 12 10
6 14 15 3 13
Keine der Folgen kommt doppelt vor!
5.3.3 Erfolge
Das Projekt wurde im März 2003 eingestellt. Projektergebnis: Für n<=11,
wobei n die Anzahl der Elemente in der Folge bestimmt, wurden akzeptable
bzw. optimale Sequenzen gefunden. Für Werte von 11 bis 26 wurden akzeptable Dreiecke gefunden, ob diese optimal sind wurde noch nicht bewiesen.
GRID APPLICATIONS
28
Grid Applications
5.3.4 Screenshots des Programmes
Abbildung 17: Hauptfenster
Abbildung 18:Status Fenster
FABIAN MOSER, MICHAEL ROGGER
29
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
5.4 Einstein@Home
5.4.1 Übersicht
Wie der Projektname vielleicht schon vermuten lässt handelt es sich hierbei
um den Beweis der Gravitationswellen.
Vom LIGO Institut in den Vereinigten Staaten wurden mit großen Detektoren (Michelson Interferometern6) Messungen vollzogen, laut der Relativitätstheorie von Albert Einstein entstehen von schnell rotierenden Sternen
extrem dichte Gravitationswellen welche die Raum-Zeit um sich herum
krümmen. Solche Gravitationswellen gilt es zu beweisen.
Die verwendeten Detektoren besitzen eine sehr hohe Genauigkeit, künftig
soll sogar eine Änderung in der Größenordnung eines Protons feststellbar
sein.
Offensichtlich fallen bei solchen hoch preziesen Messungen riesige Datenmengen an, die es zu analysieren gilt. Selbst auf heutigen Cluster Systemen
würde eine solche Analyse zahlreiche Tage beanspruchen, aus diesem
Grund hat man sich für ein Grid-System auf Basis der quelloffenen BOINC
Struktur entschieden.
5.4.2 Erfolg
Betrachtet man aktuelle Statistiken7 so besitzt das Projekt einen Floating
Point Speed von 76 TFLOPS (siehe Abbildung 19), und täglich vergrößert
sich die Beteiligung um circa 800 neue Host Systeme (Abbildung 20) welche sich beim verteilten Berechnen beteiligen. Insgesamt sind im System
mehr als 500.000 Systeme registriert. Das Projekt ist zu circa 70% abgeschlossen, ~80 Tage bis zur fertigen Analyse der zuletzt angefallenen Daten
werden noch benötigt.
6
7
Michelson-Inferometer: http://de.wikipedia.org/wiki/Michelson-Interferometer
Statistiken: http://einstein.phys.uwm.edu/server_status.php
GRID APPLICATIONS
30
Grid Applications
Abbildung 19:Floating Point Geschwindigkeit / s
Abbildung 20: Neue Benutzer/Computer in den vergangenen 24 Stunden
FABIAN MOSER, MICHAEL ROGGER
31
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
Abbildung 21: Screensaver bei aktiver Berechnung
5.5 Cuboids
5.5.1 Übersicht
Wenn man dieses Distributed Computing Projekt in eine Kategorie eingliedern möchte, so würde es am besten zum Gebiet der Stochastik passen. In der Simulation
befindet sich ein Quader8 (Abbildung 22) mit parallelen
Seiten, jedoch sind die Kantenlängen unterschiedlich.
Es wird statistisch festgehalten mit welcher Oberfläche
der Quader bei einem Wurf auftrifft.
5.5.2 Funktionsweise
Die Universität Oxford untersucht folgende einfache Fragen mit komplexen
Antworten:
8
Quader: http://en.wikipedia.org/wiki/Cuboid
GRID APPLICATIONS
32
Grid Applications
Wie verhält sich die Statistik mit den Verhältnissen der Kantenlängen?
Erste Ergebnisse zeigen, dass die Variation der Kantenlänge um 10% die
Wahrscheinlichkeit auf einer gegebenen Fläche aufzutreffen fast verdoppelt
werden kann.
Wie hängt die Statistik von Elastik oder Reibung der Materialien ab?
Materialeigenschaften wurden vor diesem Projekt noch nicht genau untersucht, sie weisen aber einen hohen Einflussfaktor auf die Wahrscheinlichkeit
der auftreffenden Fläche auf.
Wie hängt der Endzustand vom Ausgangszustand ab?
Abbildung 22:Quader
5.5.3 Erfolg
Das Projekt wurde in seiner Laufzeit beschränkt, Ende 2006 (31.12.06) soll
das Projekt enden. Bis zum 7.12.06 wurden bereits laut Statistik9 mehr als
4,5 Milliarden verschiedene Würfe berechnet. Daran beteiligt waren >500
Computer und >227 verschiedene registrierte Benutzer.
9
Statistik: http://www.quantumholism.com/cuboid/UserStatistic.htm
FABIAN MOSER, MICHAEL ROGGER
33
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
5.5.4 Screenshots von Cuboid
Abbildung 23:Hauptfenster
Abbildung 24: Systematisches würfeln inkl. Fraktal Graphik
GRID APPLICATIONS
34
Grid Applications
Abbildung 25:Fraktal mit Ausgangspositionen und Endpositionen
Abbildung 26:Sequenz eines Würfelvorganges
5.6 GPU – Global Processing Unit
5.6.1 Einführung
Der Name des Projektes kann leicht zu Verwirrungen führen, denn GPU
könnte ebenso als Akronym für Graphics Processing Unit verwendet werden. Jedoch unterstützen die Grafikchips bei diesem Projekt nicht die Berechnungen, vielleicht in zukünftigen Versionen.
GPU wird vom Pioniergeist freiwilliger getrieben, beim verteilten Rechnen
einen neuen Ansatz einzuleiten, weg vom zentralen hin zum dezentralen
GRID. Während populäre GRID Applikationen wie Seti@Home oder andere Nachfolgeprojekte einem zentralen Client/Server Modell zu Grunde liegen, orientiert sich GPU an den Tauschbörsen wie Kazaa,eMule,Torrent,…
GPU verwendet das Gnutella10 P2P Netzwerkprotokoll um die einzelnen
Grid Ressourcen miteinander zu verbinden. Im vorgestellten Modell kann
jeder der Rechenzeit zur Verfügung stellt auch den Rechnerverbund benutzten.
Auch ist eine sogenannte virtuelle Maschine implementiert, welche es erlaubt mittels Plugins auf verschiedenen Maschinen spezifische Hardware
10
Gnutella: http://de.wikipedia.org/wiki/Gnutella
FABIAN MOSER, MICHAEL ROGGER
35
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
Komponenten bzw. Funktionen zu aktivieren. Solche dynamische Bibliotheken ermöglichen schnellstmögliche Berechnungen.
Momentan sind für das Projekt 2 Extensions implementiert. Zum einen eine
Erweiterung welche es erlaubt Terragen11-Videos zu rendern. Die zweite
Erweiterung ist noch sehr experimentell und versucht eine GRID Suchmaschine aufzubauen.
Abbildung 27:Aufbau der Plattform
5.6.2 Skalierung
Bei erweiterbaren Systemen steht der Aspekt, wie gut ein System skaliert
immer im Vordergrund. Momentan kann das System gut bis zu 40-50 Computer skalieren, jedoch werden in der nächsten Stufe der Softwareentwicklung mehr als 500.000 Computer als Ziel anvisiert.
5.6.3 Distributed Search Engine
Die Extension zum GPU Framework ist momentan noch sehr experimentell,
jedoch ist der Ansatz schon viel versprechend. Über das P2P Netzwerk
Gnutella kommunizieren die „Crawler“ miteinander, dabei werden jede
Menge Web-Seiten geteilt indiziert. Abbildung 28 zeigt die Erweiterung in
11
Terragen: http://www.terragen-web.de
GRID APPLICATIONS
36
Grid Applications
Aktion, Netzwerk Statistiken sowie aktuell indizierte Seiten werden aufgezeigt.
Abbildung 28: laufende Indizierung von Webseiten
5.6.4 Terragen Rendering + Beispiel
Terragen ist ein Landschaftsgenerator, welcher besonders hohen Wert auf
Fotorealismus setzt. Folgendes Beispiel (siehe Video Basejump12) wurde im
GPU Projekt mit dem Plugin Terragen (Landschaftsmodellierung) erstellt.
Für das Rendering dieses Videos benötigten bereits 10 Computer einen ganzen Tag ihrer Rechenleistung.
12
BasejumpVideo:
http://sourceforge.net/project/showfiles.php?group_id=58134&package_id=134282&release_id=279438
FABIAN MOSER, MICHAEL ROGGER
37
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
Abbildung 29: Frontend für das Terragen Rendering
5.7 Geplante Projekte für die nahe Zukunft
5.7.1 PlayStation3 im Dienst der Medizin
Die neu erhältliche neue Spielkonsole Playstation 3 vom Elektronik Konzern SONY welche fast ausschließlich für Spiele entwickelt worden ist soll
auch für medizienische Zwecke eingesetzt werden.
Anfang März 2007 soll das Gerät auch in Europa eingeführt werden, bereits
jetzt hat die Universität Stanford ein Projekt an den Start gebracht welches
die enorme Rechenpower des Multicore Prozessor in Zeiten nutzen sollen,
wenn keine Spiele am laufen sind.
Integriert ist ein Cell13 64-Bit-Power Prozessor von IBM welcher mit
3,6GhZ läuft, mit einem Kern für generelle Berechnungen, sieben Kerne für
Stream Processing.
Die enorme Leistungsfähigkeit demonstriert die Berechnung von Wissenschaftlern welche behaupten dass 10.000 PlayStation3 Systeme 1 PetaFlop/s
erreichen. Dank der leistungstarken Grafikprozessoren sei sogar die Darstellung von Proteinen in Echtzeit möglich.
Um sich diesen Wert zu verdeutlichen kann man ihn mit einer aktuellen Liste der Top500 schnellsten Super Rechner der Welt vergleichen. Der zur Zeit
schnellste Super Rechner in der Liste (BlueGene/L von IBM) liefert eine
Maximale Leistung von 280 TFlops.
13
Cell Prozessor: http://de.wikipedia.org/wiki/Cell
GRID APPLICATIONS
38
Grid Applications
Das spezielle Programm soll die Interaktion von komplexen Proteinen bei
der Entstehung von Krebs, Alzheimer, Parkinson und weiteren Krankheiten
untersuchen.
Abbildung 30: Spielkonsole PlayStation3
5.7.2 Photon Star Projekt
Dieses Projekt plant auf der Welt ein gigantisches Teleskop Array aufzubauen. Viele individuelle kleine Teleskope sollen zusammengeschaltet eine
große Aufzeichnungsfläche erreichen um die bessere Wahrscheinlichkeit
einer Signal Entdeckung (Laser Signal) zu ermöglichen. Jedes dieser Teleskope soll über einen sensitiven Photon Detektor verfügen, auch wird zur
genauen Positionierung bzw. der Berechnung der Distanzen der Teleskope
GPS verwendet. Dieses Projekt erlaubt ebenfalls (neben professionellen Astronomen) die direkte Mitarbeit von Amateur Astronomen an der Suche nach
extra terrestrischen Leben.
Abbildung 31: Amateur Beobachtungsstation
FABIAN MOSER, MICHAEL ROGGER
39
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
Machbar ist das ganze nur durch GPS und den relativ billigen Photonen Detektoren (Abbildung 33). Ein Hobby Astronom soll mit einer Ausstattung im
Wert von circa 2.500€-5.000€ im Bereich des nötigen sich befinden.
Abbildung 32: Schema eines rießigen Teleskop Arrays
Abbildung 33: Photon Detektor
Abbildung 34: Technischer Aufbau
GRID APPLICATIONS
40
Grid Applications
6 LITERATUR- UND QUELLENVERZEICHNIS
BIONIC
http://de.wikipedia.org/wiki/Boinc
http://boinccast.podspot.de/
http://www.boinc.de/
http://boinc.berkeley.edu/
Seti@home
http://setiathome.ssl.berkeley.edu/
http://de.wikipedia.org/wiki/SETI@home
http://en.wikipedia.org/wiki/SETI%40home
Chess960@home
http://en.wikipedia.org/wiki/Chess960@home
http://www.chess960athome.org/alpha/
http://de.wikipedia.org/wiki/Chess960
LHC@home
http://lhcathome.cern.ch/
http://de.wikipedia.org/wiki/LHC@Home
http://www.science-at-home.de/projekte/lhc.php
cpdn@home
http://www.climateprediction.net/versions/DE/index.php
http://de.wikipedia.org/wiki/Climate_Prediction#Projektverlauf
http://en.wikipedia.org/wiki/Climateprediction.net
Rectilinear Crossing Number Projekt
http://dist.ist.tugraz.at/cape5/why_dt.html
Triangles
http://members.aol.com/bitzenbeitz/Contests/Triangles/Description.html
M4 Message Breaking Projekt
http://www.bytereef.org/m4_project.html
Cuboids
http://www.physics.ox.ac.uk/cm/cmt/cuboid/
Einstein@Home
http://de.wikipedia.org/wiki/Einstein%40home
http://einstein.phys.uwm.edu/
FABIAN MOSER, MICHAEL ROGGER
41
Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear
here.
http://www.zeit.de/zeit-wissen/2005/02/converted/Doppelportrait_xml
GPU
http://gpu.sourceforge.net/
PlayStation3
http://derstandard.at/?url=/?id=2667190
PhotonStar
http://www.photonstar.org/
http://www.opticalseti.org/
http://www.coseti.org/spiepro3.htm
http://www.coseti.org/4273-08.htm
http://spectrum.ieee.org/nov06/4710
GRID APPLICATIONS
Herunterladen