Leopold Franzens Universität Innsbruck Institut für Informatik Seminar – Grid Computing Wintersemester 2006/2007 SEMINARARBEIT (703321) GRID APPLICATIONS Name Fabian Moser Michael Rogger Matrikelnummer 0416386 0416128 Dezember 2006 Lehrveranstaltungsleiter: Prof. Dr. Thomas Fahringer ii Grid Applications 1 ZUSAMMENFASSUNG Dieses Dokument befasst sich mit dem Thema Grid Computing und Grid Computing Applications. In dieser Seminararbeit behandelte Themen sind: SETI@home ist ein Grid Computing Projekt und sucht das Weltall nach Radiowellen ab die von außerirdischen Lebewesen stammen könnten. Chess960@home ist Grundlagenforschung für diese neue Variante des Schachspiels. Es soll ermittelt werden welche Position der Figuren zu welchen Spielsituationen führen. LHC@home ist ein Grid Computing Projekt das Simulationen für einen Teilchenbeschleuniger berechnet. Rectlinear Crossing Number beschäftigt sich mit einem Problem der Graphentheorie. Konkret geht es dabei um die Frage wie man einen vollständigen Graph anordnet um die kleinste Anzahl an Überschneidungen von Kanten zu generieren. The M4 Message Breaking Projekt ist ein Grid Computing Projekt und beschäftigt sich mit dem entschlüsseln von 3 Nachrichten welche im Nord Atlantik im Jahre 1942 von den Deutschen gesendet und von den Alliierten empfangen wurden. Triangles ist ein Grid Computing Projekt welches mathematisch ausgerichtet ist. Das Ziel ist es Dreiecke bestehend aus Zahlen zu konstruieren, wobei die Wertigkeit der Zahlen und ihre Anordnung spezielle Anforderungen erfüllen muss. Einstein@home ist ein Grid Computing Projekt welches die Existenz von Gravitationswellen nach Albert Einstein zu beweisen versucht. Cuboids ist ein Grid Computing Projekt welches sich mit fallenden und aufprallenden Quadern befasst. Deren Wahrscheinlichkeit auf einer bestimmten Seite zu liegen wird festgehalten. GPU ist ein Framework welches mit einer gehörigen Portion an Pioniergeist versucht das Konzept von Tauschbörsen auf Grid Computing zu übertragen. Geplante Projekte der nahen Zukunft gibt einen Ausblick welche interessanten Ansätze bzw. Applikationen für die nächsten Jahre geplant sind. FABIAN MOSER, MICHAEL ROGGER Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. iii 2 INHALT 1 ZUSAMMENFASSUNG.......................................................................... II 2 INHALT ...................................................................................................III 3 EINLEITUNG ............................................................................................5 4 GRID APPLICATIONS – TEIL1 ..............................................................6 4.1 BOINC................................................................................................6 4.1.1 Übersicht .......................................................................................6 4.1.2 Das Projekt ....................................................................................6 4.1.3 Erfolg .............................................................................................6 4.1.4 Software ........................................................................................7 4.1.5 Bilder .............................................................................................9 4.2 SETI@home .....................................................................................11 4.2.1 Übersicht .....................................................................................11 4.2.2 Das Projekt ..................................................................................11 4.2.3 Erfolg ...........................................................................................11 4.2.4 Funktionalität ..............................................................................12 4.2.5 Software ......................................................................................12 4.2.6 Bilder ...........................................................................................12 4.3 Chess960@home ..............................................................................13 4.3.1 Übersicht .....................................................................................13 4.3.2 Das Projekt ..................................................................................13 4.3.3 Erfolg ...........................................................................................13 4.3.4 Funktionalität ..............................................................................13 4.3.5 Software ......................................................................................14 4.4 LHC@home .....................................................................................14 4.4.1 Übersicht .....................................................................................14 4.4.2 Das Projekt ..................................................................................14 4.4.3 Erfolg ...........................................................................................15 4.4.4 Funktionalität ..............................................................................15 4.4.5 Software ......................................................................................16 4.5 CPND ...............................................................................................16 4.5.1 Übersicht .....................................................................................16 4.5.2 Das Projekt ..................................................................................16 4.5.3 Erfolg ...........................................................................................17 GRID APPLICATIONS iv Grid Applications 4.5.4 Funktionalität .............................................................................. 18 4.5.5 Software ...................................................................................... 18 5 GRID APPLICATIONS – TEIL 2 .......................................................... 19 5.1 Rectilinear Crossing Number Projekt .............................................. 19 5.1.1 Übersicht ..................................................................................... 19 5.1.2 Beispiel für n=5 .......................................................................... 20 5.1.3 Aufwand / Resultate.................................................................... 20 5.2 Das M4 Message Breaking Project .................................................. 21 5.2.1 Übersicht ..................................................................................... 21 5.2.2 Funktionsweise der Maschine..................................................... 22 5.2.3 Beispiel einer Verschlüsselung mit Hilfe des Enigma-Simulators 23 5.2.4 Schlüsselraum ............................................................................. 24 5.2.5 Erfolg .......................................................................................... 25 5.3 Triangles........................................................................................... 26 5.3.1 Übersicht ..................................................................................... 26 5.3.2 Beispiel ....................................................................................... 27 5.3.3 Erfolge......................................................................................... 27 5.3.4 Screenshots des Programmes ...................................................... 28 5.4 Einstein@Home ............................................................................... 29 5.4.1 Übersicht ..................................................................................... 29 5.4.2 Erfolg .......................................................................................... 29 5.5 Cuboids ............................................................................................ 31 5.5.1 Übersicht ..................................................................................... 31 5.5.2 Funktionsweise ........................................................................... 31 5.5.3 Erfolg .......................................................................................... 32 5.5.4 Screenshots von Cuboid ............................................................. 33 5.6 GPU – Global Processing Unit ........................................................ 34 5.6.1 Einführung .................................................................................. 34 5.6.2 Skalierung ................................................................................... 35 5.6.3 Distributed Search Engine .......................................................... 35 5.6.4 Terragen Rendering + Beispiel ................................................... 36 5.7 Geplante Projekte für die nahe Zukunft ........................................... 37 5.7.1 PlayStation3 im Dienst der Medizin ........................................... 37 5.7.2 Photon Star Projekt ..................................................................... 38 6 LITERATUR- UND QUELLENVERZEICHNIS .................................. 40 FABIAN MOSER, MICHAEL ROGGER 5 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 3 EINLEITUNG Dieses Dokument ist im Rahmen der Seminararbeit „Grid Computing“ an der Universität Innsbruck im Wintersemester 2006 von Michael Rogger und Fabian Moser erstellt worden. Betreuer ist war der Professor Dr. Thomas Fahringer. Die Seminararbeit baut auf 4 vorhergehenden Arbeiten auf und ist deshalb nicht als Einführung in Grid Computing zu betrachten sondern viel mehr als aufbauendes Dokument welches im Grid Computing Projekte und deren Einsatzgebiete im Detail vorstellt. Weiters soll noch ein kleiner Ausblick in zukünftige Projekte gewährt . Sollten sie dieses Dokument nur mit geringem Verständnis für Grid Computing lesen wollen, empfiehlt es sich folgende Bergriffserklärung zu lesen. Sollten Sie über genügend Vorwissen verfügen können sie gerne folgenden Absatz mit ruhigem Gewissen überspringen. Wir wünsche ihnen noch viel Spaß beim Lesen und dass sie dieses Dokument mit vielen neuen, interessanten Informationen bereichert. Wikipedia zum Begriff Grid-Computing: Der Begriff Grid-Computing stammt von der englischen Bezeichnung für das Stromnetz, dem Power Grid. Die Idee des Grid Computings ist dabei die Rechenleistung - ähnlich wie elektrischen Strom - "aus der Steckdose" vom Grid beziehen zu können. Der User übergibt seinen Auftrag über genormte Schnittstellen ans Grid, woraufhin die Ressourcenallokation automatisch erfolgt. Das Grid-Computing umfasst alle Methoden, die Rechenleistung vieler Computer innerhalb eines Netzwerks so zusammenzufassen, dass über den reinen Datenaustausch hinaus die (zeitlich parallele) Lösung von rechenintensiven Problemen ermöglicht wird (verteiltes Rechnen). Dies beinhaltet auch die Themen Sicherheit (Authentifizierung und Datenverschlüsselung), Zusammenarbeit in virtuellen Organisationen sowie Softwareverteilmechanismen. Damit kann, zu deutlich geringeren Kosten, sowohl die Kapazität als auch die Rechenleistung heutiger Supercomputer übertroffen werden. GridSysteme skalieren sehr gut: durch Hinzufügen von Rechnern zum Netz (oder hierarchisches Zusammenfassen von Grids) erhöht sich die Rechenleistung in entsprechendem Maße, jedoch nicht linear. GRID APPLICATIONS 6 Grid Applications 4 GRID APPLICATIONS – TEIL1 4.1 BOINC 4.1.1 Übersicht BOINC steht für Berkeley Open Infrastructure for Network Computing und ist eine Softwareplattform für verteiltes Rechnen. Die Plattform ermöglicht es, die ungenutzte Rechenleistung von vielen tausend Computern über das Internet verfügbar zu machen. 4.1.2 Das Projekt BOINC ist auf dem Erfahrungsschatz von SETI@home entstanden, welches man fast als Mutter aller Grid Computing Projekte einstufen kann. Grundidee von BOINC war und ist es Wissenschaftlern auf aller Welt den Zugang zum Verteilten Rechnen einfach zu ermöglichen. Dabei ist das Hauptziel die Trennung der Projektverwaltung von den wissenschaftlichen Inhalten. Mit dieser Software kann jetzt die freie Rechenleistung eines Rechners dynamisch über nur einen Client auf mehrere Grid Computing Projekte aufgeteilt werden. Dies stellt eine wichtige Verbesserung gegenüber an nur ein Projekt gebundenen Clients dar, da viele Distributed-Computing-Projekte nicht über genügend Arbeit verfügen, um eine große Benutzerbasis ausreichend zu versorgen. Wenn ihre Rechner leer laufen, werden die teilweise sehr enthusiastischen Teilnehmer unzufrieden. Um dies zu vermeiden gibt es natürlich auch andere aber unverhältnismäßig schlechtere Lösungen. Bei SETI@home wurden zum Beispiel bis zu zwölf mal die selben Berechnungen an Client geschickt obwohl nur 3 Berechnungen maximal nötig waren. Es liegt also auf der Hand die Rechnerzeit an andere Projekte zu verteilen falls andere gerade keine Daten zur Berechnung zur Verfügung haben. 4.1.3 Erfolg Der Erfolg von BOINC ist immens. BOINC hat es nun möglich gemacht auch kleine Projekte, die den Aufwand eine vollständige Grid Anwendung zu programmieren niemals rechtfertigen könnten, grid – reif zu machen. Mit diesem Framework muss nun nur mehr die eigentliche Berechnunksoftware angepasst werden und mit etwas Verteilung- und Verwaltungs- Know-How erweitert werden und schon hat man eine lauffähige Grid Anwendung. Trotzdem bietet BOINC genügend Spielraum für mitunter auch sehr komplexe Anwendungen mit grafischen Spielereien etc. Projekte FABIAN MOSER, MICHAEL ROGGER Benutzer Rechner Teams Länder 7 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. BOINC kombiniert 878,187 1,554,484 55,956 238 SETI@Home Einstein@Home Rosetta@Home 570,878 150,342 101,356 1,246,595 313,718 234,012 45,356 6,304 4,180 229 195 188 Climate Prediction 102,141 191,077 4,167 184 BBC Climate Change 119,684 135,042 1,139 99 Predictor@Home LHC@Home 54,793 33,245 132,038 72,359 2,960 1,992 167 139 World Community Grid 26,294 67,471 3,453 144 SIMAP 13,782 32,788 1,017 127 9,241 31,248 786 106 11,432 3,638 8,193 3,712 2,617 4,559 21,344 14,285 12,893 12,060 11,041 9,912 821 387 586 514 448 433 118 89 101 77 74 94 SZTAKI Desktop Grid QMC@Home Chess960@Home Spinhenge@home uFluids PrimeGrid Tanpaku Abbildung 1: TOP 18 Boinc Projekte 4.1.4 Software Die Software ist von der Universität Berkeley entwickelt worden und steht momentan in der Version 5.4.11 (10.12.06) zur Verfügung. Es ist so gut wie unter allen Betriebsystemen lauffähig und steht in unter der GPL/LGPL Lizenz. Teilnehmerseitig besteht die Software aus einen Core-Client, dem BOINC Manager und oder dem BOINC-Commandline-Interface. Der Core-Client ist ein auf dem Teilnahmerechner laufendes Kommandozeilenprogramm welches die wissenschaftlichen Anwendungen gemäß den Vorgaben des Teilnehmers steuert und überwacht. Er puffert Arbeitspakete und kommuniziert mit den Schedulern und Datenservern der Projekte. Der BOINC Manager ist eine grafische Oberfläche welche zur Konfiguration und Überwachung des Core-Clients dient. Das BOINC-Commandline-Interface erlaubt es den Core-Client über Kommandozeile zu steuern. Dies ist notwendig wenn etwa keine grafische Oberfläche wie bei Servern zur Verfügung steht. GRID APPLICATIONS 8 Grid Applications Projektseitig besteht die Software aus Scheduler, Datenserver, Validator, Assimilator, File-Deleter, Splitter, Transitioner Der Scheduler läuft auf dem Webserver des Projekts. Er teilt den Teilnehmer – Clients ihre Arbeitspakete zu und nimmt nach getaner Arbeit eine kurze Meldung über Erfolg/Misserfolg entgegen. Über alle Aktivitäten führt er in der Datenbank Buch. Datenserver: Ein http-Server, von dem die Clients ihre vom Scheduler zugeteilten Arbeitspakete herunterladen und die Ergebnisdateien hochladen. Der Validator prüft die von den Clients zurückgelieferten Ergebnisdateien auf Korrektheit. Meist geschieht dies dadurch, dass ein Arbeitspaket von mehreren Teilnehmern redundant bearbeitet wird. Der Validator vergleicht dann die Ergebnisse. Idealerweise sind sie identisch. Assimilator: Ein projektspezifisches Programm. Nimmt validierte Ergebnisdateien und bereitet sie zur weitergehenden wissenschaftlichen Analyse auf. Dazu können die Ergebnisse beispielsweise in eine weitere Datenbank archiviert werden. File-Deleter: Nachdem die Ergebnisse "assimiliert" wurden sind die Input- und Output-Dateien der Clients unnötiger Ballast für den Datenserver, die durch ihre Anzahl auch seine Performance beeinträchtigen können. Mit dem File-Deleter werden nicht mehr benötigte Dateien vom Server gelöscht. Splitter: Projektspezifisches Programm. Sorgt für den Nachschub an Arbeitspaketen. Bei Projekten, die einen finiten Datenbestand analysieren, teilt er den Datenbestand in handliche Arbeitspakete auf. Bei anderen Projekten erzeugt der Splitter anhand bestimmter Parameter automatisch immer neue Arbeitspakete. Der Arbeitsvorrat ist bei solchen Projekten potenziell unendlich. Transitioner: Der Transitioner überwacht den Fortschritt der Arbeitspakete entlang einer gedachten "Pipeline". So stößt er beispielsweise den Validator an, wenn er feststellt, dass zu einem Arbeitspaket genügend redundante Ergebnisse vorliegen, so dass mit der Validierung begonnen werden kann. FABIAN MOSER, MICHAEL ROGGER 9 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 4.1.5 Bilder Abbildung 2: Boinc, Laufende Aufgaben Abbildung 3: Boinc - Laufende Projekte GRID APPLICATIONS 10 Grid Applications Abbildung 4: Boinc Statistiken über laufende Projekte FABIAN MOSER, MICHAEL ROGGER 11 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 4.2 SETI@home 4.2.1 Übersicht SETI@home (Search for extraterrestrial intelligence at home, englisch für „Suche nach außerirdischer Intelligenz zu Hause“) ist ein distribiuted computing Projekt und wurde von der University of California, Berkley ins Leben gerufen und gehosted. Am 17 Mai 1999 wurde es der Öffentlichkeit Zugänglich gemacht. 4.2.2 Das Projekt SETI@home verarbeitet Radiosignale aus dem All und untersucht ob es sich möglicherweise um Signale von anderen Lebewesen handelt. Dabei wird aber nicht wie bei herkömmlichen SETI-Projekten ein eigenes Radioteleskop eingesetzt sondern man hat stattdessen ein bestehendes Radioteleskop das zu astronomischen Beobachtungen dient mit einem zusätzlichen Empfänger ausgestattet der die Daten in das Grid speist und in Folge von der SETI@home Gemeinde verarbeitet werden. 4.2.3 Erfolg Die gesamte Rechenleistung des SETI-Grids liegt gegenwärtig bei wenig mehr als 200 TeraFLOPS ( im Vergleich Weltbester Supercomputer eServer BlueGene (IBM) 280,6). Seit 1999 haben die Grid - Member zusammen 2,3 Millionen Jahre Rechnerzeit erbracht. In der selben Zeit sind ungefähr 1,84 Milliarden Reslutate von mehr als 5,4 Millionen Benutzern retourniert worden. Ergänzend muss aber angeführt werden dass nur ca. eine halbe Million Mitglieder im Durchschnitt aktiv sind. Obwohl das SETI@home Projekt bis heute noch keinen eindeutigen Beweis für die Existenz von außerirdischen Lebewesen erbracht hat, kann man es dennoch als Mutter aller folgenden Projekte bezeichnen da mit diesem Projekt bewiesen wurde dass private Computer durchaus für den Einsatz im Grid geeignet sind und sich zu einer günstigen und ebenbürtigen Alternative für Supercomputer gemausert haben. GRID APPLICATIONS 12 Grid Applications 4.2.4 Funktionalität Das Programm führt hauptsächlich drei Tests mit den empfangenen Daten durch: Suche nach Gaußschen Anstiegen und Fällen der Übertragungsleistung, die möglicherweise auf eine Radioquelle hindeuten könnten. Suche nach Pulsen, die eine schmalbandige Digital-artige Transmission sein könnten Suche nach Tripeln, also drei Pulsen nacheinander 4.2.5 Software Das Programm wurde am 22. Juni 2004 auf eine neue Software – Plattform portiert. Das vom SETI@home-Team entwickelte BOINC stellt eine allgemeine Plattform für verschiedene Distributed-Computing-Anwendungen dar. Mit der Umstellung soll eine Basis geschaffen werden, das SETI@home-Projekt flexibel erweitern zu können. Konkret heisst das, dass Algroithmen on-the-fly nachgeladen werden können ohne zum Beispiel eine neue Version der Software downloaden zu müssen. Weiters ist auch möglich mehrere Algorithmen, die an verschieden Projekten arbeiten, im selben Client laufen lassen zu können. 4.2.6 Bilder Abbildung 5: SETI@home Grafische Darstellung der Daten FABIAN MOSER, MICHAEL ROGGER 13 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 4.3 Chess960@home 4.3.1 Übersicht Ziel des Grid Computing - Projekts Chess960@home ist es Grundlagenforschung für diese neue Variante des Schachspiels zu betreiben. Es soll ermittelt werden welche Position der Figuren zu welchen Spielsituationen führen. 4.3.2 Das Projekt Fischer Random Chess, auch Chess960 genannt, ist eine von SchachGroßmeister Bobby Fischer entwickelte Schachvariante mit 960 möglichen unterschiedlichen Ausgangsstellungen / Eröffnungen. Ziel war es, eine Schachvariante zu entwickeln, die mehr Gewicht auf die Kreativität und das Talent des Spielers legte, als auf das Auswendiglernen und Analysieren von Eröffnungen. Aus dem Grund, dass es in der Natur der Wissenschaft liegt unbelegbare Kreativität soweit möglich durch belegbare Statistiken zu ersetzen ist wohl dieses Grid Computing Projekt entstanden. Das Ziel des Projekts ist es aus den verschiedenen Eröffnungspositionen verschiedene günstige Spielvarianten heraus zu kristallisieren. 4.3.3 Erfolg Das Projekt hat bis jetzt noch keine nennenswerte Erfolge erzielt das es erst seit Juni ´06 läuft. 4.3.4 Funktionalität Um die Funktionalität des Programms zu verstehen ist ein Minimum an Grundwissen über die Regeln des Spiels notwendig. Folgende gilt es zu verstehen: GRID APPLICATIONS 14 Grid Applications Die weißen Bauern stehen auf ihren üblichen Positionen. Alle übrigen weißen Figuren stehen in der ersten Reihe. Der weiße König steht zwischen den weißen Türmen. Ein weißer Läufer steht auf weiß, der andere auf schwarz. Die schwarzen Figuren werden entsprechend den weißen spiegelsymmetrisch platziert. Steht zum Beispiel der weiße König auf b1, so wird der schwarze König auf b8 gestellt Abbildung 6: Eine mögliche Position 4.3.5 Software Das Programm verteilt Spiele an, an das Grid angeschlossene Computer und lässt diese von folgenden durchspielen und lässt sich die Ergebnisse returnieren. Der Server erstellt dann Statistiken über günstige Ausgangspositionen für „Weiss“ und „Schwarz“. Die Software basiert auf dem schon bekannten BOINC der Berkeley Universität. 4.4 LHC@home 4.4.1 Übersicht LHC@home ist ein Grid Computing Projekt das Simulationen für einen Teilchenbeschleuniger berechnet und deren Misslingen oder Erfolg retourniert an CERN (European Organization for Nuclear Research) 4.4.2 Das Projekt LHC steht für „Large Hadron Collider” und ist ein Teilchenbeschleuniger der im kommenden Jahr zwischen Schweiz und Frankreich gebaut werden soll. Er wird in schon ein bestehendes Tunnelsystem gebaut werden und FABIAN MOSER, MICHAEL ROGGER 15 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. wird dann der stärkste und größte Teilchenbeschleuniger der gesamten Welt sein. Ein Mitgrund ist dass supraleitende Magneten verwenden werden die erst mals ermöglichen sehr schwere Bleiionen mit annähern Lichtgeschwindigkeit im Teilchenbeschleuniger kreisen und kollidieren zu lassen. Nun soll vorab berechnet werden wie die Magneten einzustellen sind um ein kollidieren der Teilchen mit der Wand des Teilchenbeschleunigers zu vermeiden. Da dieser bereich der Forschung noch sehr wenig Wissen besitzt sind zahllose Versuche notwendig um auf brauchbare Ergebnisse zu stoßen. Abbildung 7: LHC Grafische Übersicht über das Tunnelsystem von LHC 4.4.3 Erfolg Das Projekt hat sich als voller Erfolg herausgestellt und hat mittlerweile über 32000 angemeldete Benutzer und über 65000 angemeldete PCs. Diese Anzahl an Benutzern ist auch notwendig denn die Vorbereitung für die realen Versuche produziert pro Jahr 15 Petabytes (15 Millionen Gigabytes) von Daten die immer wieder stoßweise auf die User einprasseln. 4.4.4 Funktionalität Genaue Algorithmen der Software sind mir leider nicht bekannt, höchstwahrscheinlich aber sehr komplex und würden den Rahmen dieser Arbeit sicherlich sprengen. GRID APPLICATIONS 16 Grid Applications Abbildung 8: Bildschirmschoner LHC@home 4.4.5 Software Die Software basiert auf dem schon bekannten BOINC der Berkeley Universität. Die Software verteilt Versuchsdaten an die Benutzer welche auf ihren PCs die Simulation des Versuchaufbaus durchführen. Dabei kann es vorkommen dass Arbeitspakte sehr schnell abgearbeitet sein können. Das liegt daran dass wenn Protonen in der Simulation sofort gegen die Wand des Teilchenbeschleunigers prallen, die Berechnung sofort abgebrochen wird. Diese Daten sind für die Forscher genauso wichtig wie erfolgreiche Resultate die dem Projektserver retourniert werden. 4.5 CPND 4.5.1 Übersicht CPND steht für „Climate Prediction Dot Net“. Ziel dieser Grid Computing Anwendung ist es Modelle zu entwickeln mit denen sich das Wetter für die kommenden 50 Jahre annähernd vorausberechnen lässt. Wichtig ist das vor allem für Nahrungsmittel-, Wasser- und Energiegewinnung. 4.5.2 Das Projekt Das Grid Computing Projekt CPND wurde von der Universität Oxford entwickelt, damit man ein Modell zur Klimavorhersage besitzt, das dem neuesten Stand der Technik entspricht und das man auf Heim-, Schul- oder Arbeitscomputer laufen lassen kann. Es werden Daten von mehreren tausend Klimamodellen gesammelt und so wird dieses Projekt zu einem der weltFABIAN MOSER, MICHAEL ROGGER 17 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. größten Experimente in Sachen Klimavorhersage. Mit dem Primärziel das Klima bis zu 100 Jahre voraussagen zu können möchte man damit auch einen Beitrag bzw. Verbesserung der aktuell verwendeten Klimamodelle erreichen, da noch bei weitem nicht alle Wechselwirkungen und Zusammenhänge im Klima bekannt sind. Das Projekt wird gesponsert von NERC (Natural Environment Research Council), dti (UK), EU, Microsoft, Met Office, Coapec. 4.5.3 Erfolg Das Projekt hat bis jetzt 2 Stufen durchlaufen. In der Ersten wurde getestet ob eine solche Berechnung überhaupt den erhofften Nutzen bringt oder ob das Wetter zu instabil ist, dass eine weit reichende Berechnung überhaupt einen Sinn hat. Abgeschlossen mit Erfolg Abbildung 9 Bildschirmschoner von CPDN Der zweite Teil lief im Jahr 2005 und baute darauf auf, ein Modell zu finden das sich auf die vergangen 50 Jahren, über die man über aufgezeichnete Daten verfügt, anpassen lässt. Wiederum abgeschlossen mit Erfolg. Der dritte und aktuelle Teil läuft seit Februar 2006 und versucht Modelle für die Jahre 2000-2100 zu entwickeln welche wiederum nach einem bestimmten Ranking gewichtet werden. Einige Grid - Rechner werden mit speziellen GRID APPLICATIONS 18 Grid Applications Berechnungen beauftragt welche zum Beispiel eine Simulation des Schwefel – Kreislaufs der Erde simulieren. 4.5.4 Funktionalität Das Programm versucht ein Klimamodell zu finden die sich auf die letzten 50 Jahre gesammelten Klimadaten anpassen lässt. In der Hoffnung dass wenn man ein passendes Model findet sich damit auch die nächsten 50 Jahre Klima berechnen lassen. Das Experiment befasst sich mit Daten über Temperatur, Regen & Schnee, Luftdruck und Wolkenbildung. Abbildung 10: Links Auflösung von cpdn@home, Rechts die Auflösung eines lokalen Wetterdiensts 4.5.5 Software Die Software baut auf das BOINC Framework auf und kommt mit einem auf realen Berechnungen basierendem, grafischen Modell der Klimaentwicklung installiert welches sich per Knopfdruck persönlich konfigurieren lässt. FABIAN MOSER, MICHAEL ROGGER 19 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 5 GRID APPLICATIONS – TEIL 2 5.1 Rectilinear Crossing Number Projekt 5.1.1 Übersicht Dieses Projekt beschäftigt sich mit einem Problem der Graphentheorie. Man betrachtet immer vollständige Graphen1, d.h. im Graphen ist jede Ecke mit jeder anderen Ecke über eine Kante verbunden. Abbildung 11: Vollständiger planarer Graph mit 4 Ecken Wenn n die Anzahl der Eckpunkte eines Graphen bezeichnet, dann ist bis zu n=4 ein planarer2 Graph (ohne Kanten Überschneidungen) möglich. Siehe Beispiel für n=4 in Abbildung 11. Da mit mehr als 4 Eckpunkten keine planare Darstellung mehr möglich ist, versucht man Graphen für n>4 zu finden welche eine möglichst optimale(geringe) Kanten-Überschneidung besitzen. Das Projekt verwendet das beliebte und häufig verwendete Open-Source BONIC Infrastruktur der Universität Berkeley, welches den Client bereits zur Verfügung stellt. 1 2 Vollständiger Graph: http://de.wikipedia.org/wiki/Vollst%C3%A4ndiger_Graph Planerer Graph: http://de.wikipedia.org/wiki/Planarer_Graph GRID APPLICATIONS 20 Grid Applications 5.1.2 Beispiel für n=5 In Abbildung 12 wird ein Beispiel gezeigt für 3 vollständige Graphen mit 5 Ecken welche isomorph3 sind, bei konvexer Anordnung (3ter Graph von links nach rechts) ergeben sich 5 Überschneidungen. Die optimale Lösung besteht darin die 5 Eckpunkte so anzuordnen, dass nur eine Überschneidung auftritt (Abbildung 12 linker Graph). Abbildung 12: drei isomorphe vollständige Graphen mit n=5 Hinweis: Es gibt keine Möglichkeit einen Graphen mit 5 Eckpunkten (auch wenn Kurven erlaubt wären) so anzuordnen, dass keine Überschneidung der Kanten auftritt. Bei konvexer Anordnung (in einem Kreis) ist die Kantenüberdeckung immer maximal. 5.1.3 Aufwand / Resultate Das Problem bei der Berechnung ist der exponentielle Anstieg des Aufwandes bezüglich der Eckpunkte. Bei einer Anzahl von 11 Punkten ergeben sich schon mehr als 2 Milliarden verschiedene Kombinationen zur Anordnung. Bereits in den 60er Jahren wurde nach solchen optimalen Graphen gesucht, im Jahre 2004 wurde das Problem für n=11 gelöst. Das Distributed Computing Projekt war bisher für n <= 17 erfolgreich. Der aktuelle Fokus liegt bei n=18. 3 Isomorpher Graph: http://de.wikipedia.org/wiki/Isomorphie_von_Graphen FABIAN MOSER, MICHAEL ROGGER 21 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 5.2 Das M4 Message Breaking Project 5.2.1 Übersicht Das Distributed Computing Projekt „The M4 Message Breaking Project“ beschäftigt sich mit dem entschlüsseln von 3 Nachrichten welche im Nord Atlantik im Jahre 1942 empfangen wurden. Die Signale wurden für nicht entschlüsselbar eingestuft. Erstmals im Jahre 1995 (Dezember) wurden die Signale in der Fachzeitschrift Cryptologia von Ralp Erskine präsentiert. Die Signale wurden zur damaligen Zeit mit der de/chiffrier Maschine Enigma4 (Abbildung 13) entschlüsselt. Die Maschine wurde kommerziell in den 20er verwendet, auch vom Militär (von verschiedenen Nationen) fand sie Verwendung. Die berühmteste Verwendung war von Nazi Deutschland vor und nach dem 2ten Weltkrieg, diese spezielle Version der Maschine wurde als Wehrmacht Enigma bezeichnet. 4 http://en.wikipedia.org/wiki/Enigma_machine GRID APPLICATIONS 22 Grid Applications Abbildung 13: Enigma - deutsche Version 5.2.2 Funktionsweise der Maschine Es stehen unterschiedliche Walzen zur Verfügung welche mit römischen Zahlen von 1 bis 5 durchnummeriert sind. Für unterschiedliche Tage sind verschieden Walzen vorgesehen, welche von einer geheimen Tabelle ausgelesen werden. Beispiel für den Abriss der geheimen Tabelle: Tag UKW 31 B 30 B 29 B Walzenlage I IV III II V I III I IV Ringstellung 16 26 08 18 24 11 01 17 22 ---- Steckerverbindungen ---AD CN ET FL GI JV KZ PU QY WX BN DZ EP FX GT HW IY OU QV RS AH BL CX DI ER FK GU NP OQ TY Die Walzen wurden von links nach rechts in die Maschine eingesetzt. UKW=B bedeutet, dass die Umkehrwalze B zu wählen ist. Abbildung 14: Walzen Der Linke Rotor läuft langsam, wobei die Walze ganz rechts am schnellsten laufen. Die Ringstellung ist in Zahlen angegeben und entspricht der Stellung der Buchstaben im Alphabet, d.h. für den 31. Tag ist die Ringstellung auf 16,26,08 eingestellt. Das bedeutet an den Walzen muss man P,Z und H einstellen. An der Vorderseite der Maschine befindet sich eine Steckkarte(Abbildung 15: Plugboard einer Enigma Maschine), es wurden üblicherweise 10 Kabel eingesteckt, Stecker konnten nur in einer Orientierung eingesteckt werden (wurde mit unterschiedlich großen Einstecklöchern realisiert). FABIAN MOSER, MICHAEL ROGGER 23 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Abbildung 15: Plugboard einer Enigma Maschine 5.2.3 Beispiel einer Verschlüsselung mit Hilfe des Enigma-Simulators5 Die Enigma Maschine kann nur Buchstaben ver-/entschlüsseln, d.h. keine Leerzeichen, Sonderzeichen oder Zahlen sind möglich. Aus diesem Grund muss der Text an erster Stelle zur Verschlüsselung angepasst werden. Der zu verschlüsselnde Text lautet: „Michael Rogger“ Nach einer einfachen Anpassung ergibt sich folgender Text: „MICHA ELROG GER“ Ich verwende die oben aufgezeigte geheime Tabelle für den 31ten Tag des Monats. Nun wird der entsprechende Walzenschlüssel auf I, IV, III eingestellt, als Ringstellung entnimmt man für denselben Tag (31) folgende Werte: 16, 26, 08. Die Steckverbindung ist ebenfalls für den jeweiligen Tag in der Tabelle angegeben: AD CN ET FL GI JV KZ PU QY WX Nun überlege ich mir eine beliebige Grundstellung, zum Beispiel „QWE“. Diese Grundstellung übertrage ich auf die Walzen. Nun wird ein zufälliger Spruchschlüssel erfunden, Beispiel „RTZ“. Dieser wird mit der Enigma Maschine verschlüsselt. Man erhält „EWG“. „QWE EWG“ wird unverschlüsselt übertragen. Früher üblicherweise mit Morsecode. 5 Enigma Simulator für Windows: http://users.telenet.be/d.rijmenants/en/enigmasim.htm GRID APPLICATIONS 24 Grid Applications Aus einer Kenngruppentabelle wird noch eine für den Tag gültige Kennung ausgewählt, in diesem Beispiel „Now“. Zur Tarnung wird diese permutiert und um zwei zufällige Buchstaben ergänzt. So wird aus „NOW“ -> „OWN“ -> „XYOWN“. Diese Buchstabenreihenfolge wird unverschlüssselt dem Geheimtext vorangestellt. Nun stelle ich die drei Walzen der Enigma Maschine auf den Spruchschlüssel „RTZ“ und verschlüssle den oben genannten Text. Nun teilt man dem Empfänger folgende Nachricht mit: „XYOWN COUZV SFIWJ SQF“ Nun die Entschlüsselung: Der Empfänger überprüft die Länge der Zeichen, aus den ersten 5 Buchstaben lässt er die ersten 2 wegfallen. Die übrigen 3 Buchstaben sortiert er aufsteigend. Stimmt der Schlüssel mit dem Tagesschlüssel überein, wir der übermittelte String „QWE EWG“ verwendet. „QWE“ wird als Grundstruktur eingetragen und EWG in die Tastatur eingetippt. Nun erhält man die Buchstaben RTZ welche nun als Grundstellung für die Entschlüsselung des verschlüsselten Textes verwendet wird. Der letzte Schritt besteht noch darin den verschlüsselten Text „COUZV SFIWJ SQF“ (ohne die ersten 5 Zeichen) per Tastatur einzugeben und somit den Text zu entschlüsseln. Als Resultat erhält man erwartungsgemäß wieder „MICHA ELROG GER“ und somit ist die Prozedur abgeschlossen. 5.2.4 Schlüsselraum Die gesamten möglichen Kombinationen betragen bei 5 Walzen, einer von 2 Umkehrwalzen, 10 Verdrahtungen: 2*10^23 ~ 77bit. Im Vergleich dazu verfügt DES über 56Bit, ist jedoch nur eine notwendige aber nicht hinreichende Bedingung für Sicherheit! Mit Hilfe einer sogenannten „Turing-Bombe“ (Abbildung 16) wurden solche Verschlüsselungen von der USA geknackt. FABIAN MOSER, MICHAEL ROGGER 25 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Abbildung 16: Turing Bombe - knackt Enigma Codes Das M4 Projekt verwendet nicht nur eine Brute-Force Methode (der Adressraum wäre zu groß) sondern kombiniert die Methode mit einem so genannten Climbing Algorithmus, welcher eine Optimierung des Steckboardes versucht. 5.2.5 Erfolg Am 20 Februar 2006 wurde eine Nachricht entschlüsselt, die zweite wurde am 7 März 2006 geknackt. Eine der 3 Nachrichten ist noch ausständig! 259080 / 5434920 work units done. 1te Nachricht: Verschlüsselter Text: nczwvusxpnyminhzxmqxsfwxwlkjahshnmcoccakuqpmkcsmhkseinjusblkiosxckubhmllx csjusrrdvkohulxwccbgvliyxeoahxrhkkfvdrewezlxobafgyujqukgrtvukameurbveksuh hvoyhabcjwmaklfklmyfvnrizrvvrtkofdanjmolbgffleoprgtflvrhowopbekvwmuqfmpwp armfhagkxiibg Von Looks: Funktelegramm 1132/19 Inhalt: GRID APPLICATIONS 26 Grid Applications Bei Angriff unter Wasser gedrueckt, Wasserbomben. Letzter Gegnerstandort 08:30 Uhr, Marqu AJ 9863, 220 Grad, 8 Seemeilen, stosse nach. 14 Millibar faellt, NNO 4, Sicht 10. 2te Nachricht: Verschlüsselter Text: tmkfnwzxffiiyxutihwmdhxifzeqvkdvmqswbqndyozftiwmjhxhyrpaczugrremvpanwxgtkthn rlvhkzpgmnmvsecvckhoinplhhpvpxkmbhokccpdpevxvvhozzqbiyieouseznhjkwhydagtxdjd jkjpkcsdsuztqcxjdvlpamgqkkshphvksvpcbuwzfizpfuup 0425 Ausgang FT. 0246/21/203: Auf Geleitkurs 55° nichts gefunden, marschiere befohlenes Qu. Standort Marqu. AJ 3995. SO 4, See 3, 10/10 bedeckt, 28 mb steigend, Nebel, Sicht 1 sm. Schroeder 5.3 Triangles 5.3.1 Übersicht Dieses Projekt ist durch einen Programmierwettbewerb entstanden. Wie der Name schon vermuten lässt geht es um Dreiecke, also um Zahlen Dreiecke. Folgen gelten als akzeptabel wenn keine darauf folgenden Folgen doppelt vorhanden sind. Das Dreieck im später genannten Beispiel ist somit nicht akzeptabel. Es gibt von einer Folge mehrere akzeptable Dreiecke, diese werden über die so genannte Spannweite klassifiziert. Das größte und das kleinste Element definieren hierbei die Größe. Definiertes Ziel: Finden minimaler Spannen in bestimmten Folgen FABIAN MOSER, MICHAEL ROGGER 27 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 5.3.2 Beispiel Zunächst betrachten wir ein Dreieck mit folgendem Aufbau: 10 10 20 20 30 10 Gestartet wird mit der unteren Folge (20,30,10), die Elemente über der Folge ergeben sich immer aus dem Betrag der Differenz der zwei unterliegenden Elemente. Das obere Beispiel gilt als nicht akzeptabel, da 10 und 20 mehrmals vorkommen. Vier akzeptable und gleichzeitig auch optimale Dreiecke sind: 2 13 3 41 265 3 47 59 2 6 1 10 8 5 4 9 7 11 2 8 1 12 10 6 14 15 3 13 Keine der Folgen kommt doppelt vor! 5.3.3 Erfolge Das Projekt wurde im März 2003 eingestellt. Projektergebnis: Für n<=11, wobei n die Anzahl der Elemente in der Folge bestimmt, wurden akzeptable bzw. optimale Sequenzen gefunden. Für Werte von 11 bis 26 wurden akzeptable Dreiecke gefunden, ob diese optimal sind wurde noch nicht bewiesen. GRID APPLICATIONS 28 Grid Applications 5.3.4 Screenshots des Programmes Abbildung 17: Hauptfenster Abbildung 18:Status Fenster FABIAN MOSER, MICHAEL ROGGER 29 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 5.4 Einstein@Home 5.4.1 Übersicht Wie der Projektname vielleicht schon vermuten lässt handelt es sich hierbei um den Beweis der Gravitationswellen. Vom LIGO Institut in den Vereinigten Staaten wurden mit großen Detektoren (Michelson Interferometern6) Messungen vollzogen, laut der Relativitätstheorie von Albert Einstein entstehen von schnell rotierenden Sternen extrem dichte Gravitationswellen welche die Raum-Zeit um sich herum krümmen. Solche Gravitationswellen gilt es zu beweisen. Die verwendeten Detektoren besitzen eine sehr hohe Genauigkeit, künftig soll sogar eine Änderung in der Größenordnung eines Protons feststellbar sein. Offensichtlich fallen bei solchen hoch preziesen Messungen riesige Datenmengen an, die es zu analysieren gilt. Selbst auf heutigen Cluster Systemen würde eine solche Analyse zahlreiche Tage beanspruchen, aus diesem Grund hat man sich für ein Grid-System auf Basis der quelloffenen BOINC Struktur entschieden. 5.4.2 Erfolg Betrachtet man aktuelle Statistiken7 so besitzt das Projekt einen Floating Point Speed von 76 TFLOPS (siehe Abbildung 19), und täglich vergrößert sich die Beteiligung um circa 800 neue Host Systeme (Abbildung 20) welche sich beim verteilten Berechnen beteiligen. Insgesamt sind im System mehr als 500.000 Systeme registriert. Das Projekt ist zu circa 70% abgeschlossen, ~80 Tage bis zur fertigen Analyse der zuletzt angefallenen Daten werden noch benötigt. 6 7 Michelson-Inferometer: http://de.wikipedia.org/wiki/Michelson-Interferometer Statistiken: http://einstein.phys.uwm.edu/server_status.php GRID APPLICATIONS 30 Grid Applications Abbildung 19:Floating Point Geschwindigkeit / s Abbildung 20: Neue Benutzer/Computer in den vergangenen 24 Stunden FABIAN MOSER, MICHAEL ROGGER 31 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Abbildung 21: Screensaver bei aktiver Berechnung 5.5 Cuboids 5.5.1 Übersicht Wenn man dieses Distributed Computing Projekt in eine Kategorie eingliedern möchte, so würde es am besten zum Gebiet der Stochastik passen. In der Simulation befindet sich ein Quader8 (Abbildung 22) mit parallelen Seiten, jedoch sind die Kantenlängen unterschiedlich. Es wird statistisch festgehalten mit welcher Oberfläche der Quader bei einem Wurf auftrifft. 5.5.2 Funktionsweise Die Universität Oxford untersucht folgende einfache Fragen mit komplexen Antworten: 8 Quader: http://en.wikipedia.org/wiki/Cuboid GRID APPLICATIONS 32 Grid Applications Wie verhält sich die Statistik mit den Verhältnissen der Kantenlängen? Erste Ergebnisse zeigen, dass die Variation der Kantenlänge um 10% die Wahrscheinlichkeit auf einer gegebenen Fläche aufzutreffen fast verdoppelt werden kann. Wie hängt die Statistik von Elastik oder Reibung der Materialien ab? Materialeigenschaften wurden vor diesem Projekt noch nicht genau untersucht, sie weisen aber einen hohen Einflussfaktor auf die Wahrscheinlichkeit der auftreffenden Fläche auf. Wie hängt der Endzustand vom Ausgangszustand ab? Abbildung 22:Quader 5.5.3 Erfolg Das Projekt wurde in seiner Laufzeit beschränkt, Ende 2006 (31.12.06) soll das Projekt enden. Bis zum 7.12.06 wurden bereits laut Statistik9 mehr als 4,5 Milliarden verschiedene Würfe berechnet. Daran beteiligt waren >500 Computer und >227 verschiedene registrierte Benutzer. 9 Statistik: http://www.quantumholism.com/cuboid/UserStatistic.htm FABIAN MOSER, MICHAEL ROGGER 33 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. 5.5.4 Screenshots von Cuboid Abbildung 23:Hauptfenster Abbildung 24: Systematisches würfeln inkl. Fraktal Graphik GRID APPLICATIONS 34 Grid Applications Abbildung 25:Fraktal mit Ausgangspositionen und Endpositionen Abbildung 26:Sequenz eines Würfelvorganges 5.6 GPU – Global Processing Unit 5.6.1 Einführung Der Name des Projektes kann leicht zu Verwirrungen führen, denn GPU könnte ebenso als Akronym für Graphics Processing Unit verwendet werden. Jedoch unterstützen die Grafikchips bei diesem Projekt nicht die Berechnungen, vielleicht in zukünftigen Versionen. GPU wird vom Pioniergeist freiwilliger getrieben, beim verteilten Rechnen einen neuen Ansatz einzuleiten, weg vom zentralen hin zum dezentralen GRID. Während populäre GRID Applikationen wie Seti@Home oder andere Nachfolgeprojekte einem zentralen Client/Server Modell zu Grunde liegen, orientiert sich GPU an den Tauschbörsen wie Kazaa,eMule,Torrent,… GPU verwendet das Gnutella10 P2P Netzwerkprotokoll um die einzelnen Grid Ressourcen miteinander zu verbinden. Im vorgestellten Modell kann jeder der Rechenzeit zur Verfügung stellt auch den Rechnerverbund benutzten. Auch ist eine sogenannte virtuelle Maschine implementiert, welche es erlaubt mittels Plugins auf verschiedenen Maschinen spezifische Hardware 10 Gnutella: http://de.wikipedia.org/wiki/Gnutella FABIAN MOSER, MICHAEL ROGGER 35 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Komponenten bzw. Funktionen zu aktivieren. Solche dynamische Bibliotheken ermöglichen schnellstmögliche Berechnungen. Momentan sind für das Projekt 2 Extensions implementiert. Zum einen eine Erweiterung welche es erlaubt Terragen11-Videos zu rendern. Die zweite Erweiterung ist noch sehr experimentell und versucht eine GRID Suchmaschine aufzubauen. Abbildung 27:Aufbau der Plattform 5.6.2 Skalierung Bei erweiterbaren Systemen steht der Aspekt, wie gut ein System skaliert immer im Vordergrund. Momentan kann das System gut bis zu 40-50 Computer skalieren, jedoch werden in der nächsten Stufe der Softwareentwicklung mehr als 500.000 Computer als Ziel anvisiert. 5.6.3 Distributed Search Engine Die Extension zum GPU Framework ist momentan noch sehr experimentell, jedoch ist der Ansatz schon viel versprechend. Über das P2P Netzwerk Gnutella kommunizieren die „Crawler“ miteinander, dabei werden jede Menge Web-Seiten geteilt indiziert. Abbildung 28 zeigt die Erweiterung in 11 Terragen: http://www.terragen-web.de GRID APPLICATIONS 36 Grid Applications Aktion, Netzwerk Statistiken sowie aktuell indizierte Seiten werden aufgezeigt. Abbildung 28: laufende Indizierung von Webseiten 5.6.4 Terragen Rendering + Beispiel Terragen ist ein Landschaftsgenerator, welcher besonders hohen Wert auf Fotorealismus setzt. Folgendes Beispiel (siehe Video Basejump12) wurde im GPU Projekt mit dem Plugin Terragen (Landschaftsmodellierung) erstellt. Für das Rendering dieses Videos benötigten bereits 10 Computer einen ganzen Tag ihrer Rechenleistung. 12 BasejumpVideo: http://sourceforge.net/project/showfiles.php?group_id=58134&package_id=134282&release_id=279438 FABIAN MOSER, MICHAEL ROGGER 37 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Abbildung 29: Frontend für das Terragen Rendering 5.7 Geplante Projekte für die nahe Zukunft 5.7.1 PlayStation3 im Dienst der Medizin Die neu erhältliche neue Spielkonsole Playstation 3 vom Elektronik Konzern SONY welche fast ausschließlich für Spiele entwickelt worden ist soll auch für medizienische Zwecke eingesetzt werden. Anfang März 2007 soll das Gerät auch in Europa eingeführt werden, bereits jetzt hat die Universität Stanford ein Projekt an den Start gebracht welches die enorme Rechenpower des Multicore Prozessor in Zeiten nutzen sollen, wenn keine Spiele am laufen sind. Integriert ist ein Cell13 64-Bit-Power Prozessor von IBM welcher mit 3,6GhZ läuft, mit einem Kern für generelle Berechnungen, sieben Kerne für Stream Processing. Die enorme Leistungsfähigkeit demonstriert die Berechnung von Wissenschaftlern welche behaupten dass 10.000 PlayStation3 Systeme 1 PetaFlop/s erreichen. Dank der leistungstarken Grafikprozessoren sei sogar die Darstellung von Proteinen in Echtzeit möglich. Um sich diesen Wert zu verdeutlichen kann man ihn mit einer aktuellen Liste der Top500 schnellsten Super Rechner der Welt vergleichen. Der zur Zeit schnellste Super Rechner in der Liste (BlueGene/L von IBM) liefert eine Maximale Leistung von 280 TFlops. 13 Cell Prozessor: http://de.wikipedia.org/wiki/Cell GRID APPLICATIONS 38 Grid Applications Das spezielle Programm soll die Interaktion von komplexen Proteinen bei der Entstehung von Krebs, Alzheimer, Parkinson und weiteren Krankheiten untersuchen. Abbildung 30: Spielkonsole PlayStation3 5.7.2 Photon Star Projekt Dieses Projekt plant auf der Welt ein gigantisches Teleskop Array aufzubauen. Viele individuelle kleine Teleskope sollen zusammengeschaltet eine große Aufzeichnungsfläche erreichen um die bessere Wahrscheinlichkeit einer Signal Entdeckung (Laser Signal) zu ermöglichen. Jedes dieser Teleskope soll über einen sensitiven Photon Detektor verfügen, auch wird zur genauen Positionierung bzw. der Berechnung der Distanzen der Teleskope GPS verwendet. Dieses Projekt erlaubt ebenfalls (neben professionellen Astronomen) die direkte Mitarbeit von Amateur Astronomen an der Suche nach extra terrestrischen Leben. Abbildung 31: Amateur Beobachtungsstation FABIAN MOSER, MICHAEL ROGGER 39 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. Machbar ist das ganze nur durch GPS und den relativ billigen Photonen Detektoren (Abbildung 33). Ein Hobby Astronom soll mit einer Ausstattung im Wert von circa 2.500€-5.000€ im Bereich des nötigen sich befinden. Abbildung 32: Schema eines rießigen Teleskop Arrays Abbildung 33: Photon Detektor Abbildung 34: Technischer Aufbau GRID APPLICATIONS 40 Grid Applications 6 LITERATUR- UND QUELLENVERZEICHNIS BIONIC http://de.wikipedia.org/wiki/Boinc http://boinccast.podspot.de/ http://www.boinc.de/ http://boinc.berkeley.edu/ Seti@home http://setiathome.ssl.berkeley.edu/ http://de.wikipedia.org/wiki/SETI@home http://en.wikipedia.org/wiki/SETI%40home Chess960@home http://en.wikipedia.org/wiki/Chess960@home http://www.chess960athome.org/alpha/ http://de.wikipedia.org/wiki/Chess960 LHC@home http://lhcathome.cern.ch/ http://de.wikipedia.org/wiki/LHC@Home http://www.science-at-home.de/projekte/lhc.php cpdn@home http://www.climateprediction.net/versions/DE/index.php http://de.wikipedia.org/wiki/Climate_Prediction#Projektverlauf http://en.wikipedia.org/wiki/Climateprediction.net Rectilinear Crossing Number Projekt http://dist.ist.tugraz.at/cape5/why_dt.html Triangles http://members.aol.com/bitzenbeitz/Contests/Triangles/Description.html M4 Message Breaking Projekt http://www.bytereef.org/m4_project.html Cuboids http://www.physics.ox.ac.uk/cm/cmt/cuboid/ Einstein@Home http://de.wikipedia.org/wiki/Einstein%40home http://einstein.phys.uwm.edu/ FABIAN MOSER, MICHAEL ROGGER 41 Error! Use the Home tab to apply Überschrift 1 to the text that you want to appear here. http://www.zeit.de/zeit-wissen/2005/02/converted/Doppelportrait_xml GPU http://gpu.sourceforge.net/ PlayStation3 http://derstandard.at/?url=/?id=2667190 PhotonStar http://www.photonstar.org/ http://www.opticalseti.org/ http://www.coseti.org/spiepro3.htm http://www.coseti.org/4273-08.htm http://spectrum.ieee.org/nov06/4710 GRID APPLICATIONS