Supercomputer

- .
Stolz präsentierte das Forschungszentrum Jülich Ende Mai 2009 drei neue Supercomputer: JUGENE, JUROPA und HPC-FF. Mit einer Rechenleistung von 1 Petaflop – oder 1 Billiarde Rechenoperationen – pro Sekunde nimmt Jugene auf der im Juni erschienenen Rangliste der schnellsten Rechner der Welt Platz drei ein. Das Tandem Juropa – HPC-FF belegt mit 308 Teraflop – oder 308 Billionen Rechenoperationen pro Sekunde – immerhin noch Platz 10. Doch das Wettrennen um die Rechenpower sei kein Selbstzweck, sagt Prof. Dr. Dr. Thomas Lippert, Direktor des Jülicher Supercomputing Centre (JSC) am Forschungszentrum Jülich. „Mittlerweile sind Supercomputer, neben Theorie und Experiment, das dritte Standbein der Forschung, und ihre Leistungsfähigkeit schafft die Voraussetzung, um äußerst komplexe Fragen zu lösen.“
Wo reale Experimente zu gefährlich sind wie bei Sicherheitsanalysen von Atomkraftwerken, zu aufwändig wie beim Fusionsreaktor ITER, oder gar unmöglich wie bei Auslösern und Folgen des Klimawandels, da dienen Computer heute als virtuelles Labor. Mit Simulationen versuchen die Forscher, die Realität nachzubilden und künftiges Verhalten vorauszusagen. „Supercomputer sind die einzige Möglichkeit, viele wissenschaftliche Probleme überhaupt zu lösen“, sagt Lippert. Sie können viel schneller rechnen, weil in ihnen nicht nur ein Prozessor seinen Dienst verrichtet, sondern Hundertausende parallel arbeiten. 290.000 Prozessoren sind es bei Jugene. Ein Prozess, der einen normalen PC zehn Jahre beschäftigen würde, lässt sich so in 20 Minuten durchlaufen und dann mit verschiedenen Parametern wiederholen.
Das Supercomputing selbst ist allerdings eine Wissenschaft für sich. Zum einen ist dafür eine besondere Technik nötig. Sie ist – im Falle von Jugene – in 72 telefonzellengroßen Schränken untergebracht. Die unüberschaubar vielen Prozessoren sind über ein sehr schnelles Netzwerk zusammengeschlossen, über das die Daten ausgetauscht werden. „Doch nicht allein die Rechenpower ist entscheidend“, betont Lippert, „man muss sie auch zu nutzen wissen.“ Wenn ein Programm auf vielen Prozessoren läuft, ist es wie auf einer Großbaustelle: Es kommt auf die richtige Verteilung der Aufgaben an, nicht alle lassen sich parallel bearbeiten. Welcher Prozessor wann von wo neue Daten bekommt, wie sie rechtzeitig und zuverlässig ankommen, all das muss geschickt organisiert und programmiert werden. Um die Fachwissenschaftler unterschiedlicher Disziplinen dabei zu unterstützen, ihre Simulationen für den jeweiligen Supercomputer zu optimieren, wurden am JSC vier Simulation Labs eingerichtet: Für die Plasmaforschung, für Molekulare Systeme, für Computational Biology und für die Atmosphärenund Klimaforschung. Hier arbeiten Teams, die sowohl die entsprechende fachliche Expertise haben als auch Spezialisten für Supercomputer sind.
Die Simulation Labs und andere Einrichtungen des JSC bieten aber nicht nur Dienstleistung für die Nutzer von Supercomputern. Sie forschen und entwickeln auch selber. Neue Softwarewerkzeuge zum Beispiel, die analysieren, wie die Simulationsprogramme noch optimiert werden können. Auch die Entwicklung neuer Rechner steht auf der Agenda. Denn Supercomputer sind Einzelstücke, die mit ihrer Rechnerarchitektur die speziellen Bedürfnisse der Forschung berücksichtigen. Die Rechencluster Juropa und HPC-FF wurden beispielsweise in Jülich konzipiert und mit Firmen wie Intel, Bull, SUN, Melanox und ParTec realisiert. Der Supercomputer HPC-FF dient ausschließlich der europäischen Fusionsforschung. Für besonders anspruchsvolle Aufgaben kann er mit Juropa gekoppelt werden. Die Nutzer der Jülicher Supercomputer kommen von Universitäten, anderen Helmholtz-Zentren, der Max-Planck-Gesellschaft und aus der Industrie. Mit den neuen Rechnern werde das JSC zunehmend auch für europäische Forscher attraktiv, meint Lippert. „Die rekordverdächtige Rechenpower ist ein wichtiges Signal, dass hier exzellente Forschung möglich ist.“
Um die Aktivitäten der einzelnen europäischen Länder im Supercomputing zu koordinieren und ihre Position im Wettbewerb mit den USA und Japan zu stärken, wurde im Jahr 2007 die „Partnership for Advanced Computing in Europe“ (PRACE) ins Leben gerufen. „Den Anwendern sollen künftig mehr und auf ihre Bedürfnisse zugeschnittene Kapazitäten zur Verfügung stehen“, sagt Dr. Thomas Eickermann vom JSC, Projektmanager von PRACE. Deutschlandweit wurden die Supercomputing-Aktivitäten bereits durch den Zusammenschluss der drei Höchstleistungsrechenzentren in Jülich, Stuttgart und Garching zum Gauss-Center for Supercomputing gebündelt.
Uta Deffke

