Der JUWELS-Supercomputer des Jülich Supercomputing Centre ist der schnellste Supercomputer Europas. Bild: Forschungszentrum Jülich / Wilhelm-Peter Schneider

Der nächste große Schritt

Ohne Supercomputer ist moderne Wissenschaft kaum noch vorstellbar. Zwei neue Rechner in Jülich und Karlsruhe setzen nun neue Maßstäbe – und sind bereits auf Technologien vorbereitet, die es noch gar nicht gibt.

Die Entwicklung von Impfstoffen gegen neue Viren wie SARS-CoV-2; die immer genauere Simulation und somit Prognose des Klimawandels; die Entwicklung unserer künftigen CO2-neutralen Energieversorgung: Solche Forschungsfragen sind hochkomplex und brauchen Werkzeuge, um gigantische Datenmengen zu erfassen und zu verarbeiten. „Sämtliche Bereiche der Naturwissenschaften machen mittlerweile mithilfe leistungsfähiger Rechner große Fortschritte“, sagt Thomas Lippert, der am Forschungszentrum Jülich das Supercomputing Centre (JSC) leitet. „Das gilt auch für die Gesellschaftswissenschaften, die mit immer größeren Datenmengen arbeiten.“ Die Werkzeuge der Forscher werden damit selbst zum Ergebnis wissenschaftlicher Innovation.

Der schnellste Superrechner Europas

Das Forschungszentrum hat mit dem „Jülich Wizard for European Leadership Science“ (JUWELS) ein solches Werkzeug zwei Jahre lang entwickelt und 2020 fertig ausgebaut. Der nunmehr schnellste Supercomputer Europas, weltweit unter den Top 10, hat eine Leistung von 85 Petaflops, kann also 85 Billiarden Rechenoperationen pro Sekunde durchführen. Dies entspricht der Kapazität von mehr als 300.000 heute üblichen PCs. JUWELS hat bereits die Entwicklung von Medikamenten gegen COVID-19 unterstützt und ermöglicht es, besonders komplexe Klimamodelle zu berechnen. „Dies macht seine hochflexible modulare Architektur möglich“, erläutert Lippert. „Bei JUWELS übernehmen Cluster- und Booster-Module eine sehr effiziente Arbeitsteilung.“

Bei herkömmlichen Rechnern sind Tausende identische Recheneinheiten zusammengeschlossen. Einige Anwendungen nutzen diese aber nur teilweise aus. Die modulare Architektur des Jülicher Supercomputers ergänzt das bisherige Cluster-Modul, die mit CPU-Prozessoren arbeiten, um das superschnelle Booster-Modul. Mit seinen leistungsstarken, hocheffizienten Grafikprozessoren ist es speziell für rechenintensive Anwendungen ausgelegt. Beide Module sind sehr eng verschaltet. „Um viele verschiedene Rechenprobleme in einer wissenschaftlichen Umgebung effizient lösen zu können, muss mehr als eine Rechnerarchitektur genutzt werden“, so Lippert. „Zu den Stärken von JUWELS gehört, dass er für konkrete Aufgaben entsprechend konfiguriert werden kann.“ Weitere Module wie Datenspeicher oder Analysetools lassen sich bei Bedarf integrieren.

Der Betrieb solcher Supercomputer erfordert in der Regel einen hohen Energieeinsatz, nicht zuletzt, weil die Maschinen gekühlt werden müssen. Hierbei erweist sich JUWELS mit seiner Warmwasserkühlung als besonders effizient. Die Flüssigkeit bedarf keiner zusätzlichen Kälteerzeuger, sie kühlt direkt an der Außenluft ab und spart dadurch Energie.

Supercomputer auf ein neues Level heben

Apropos Klima und Forschung – die Verteilung der verschiedenen Rechenaufgaben auf die unterschiedlichen Module sieht bei JUWELS zum Beispiel so aus: Atmosphärischer Transport auf der globalen Ebene wird im Cluster berechnet, chemische Reaktionen im Booster. Arbeitsteilung und Vernetzung war auch das Erfolgsrezept bei der Entwicklung des Supercomputers. Das Forschungszentrum Jülich hat dabei mit dem französisch-deutschen Unternehmen Atos, dem Münchner Supercomputing-Spezialisten ParTec und dem US-Hersteller NVIDIA zusammengearbeitet. Auf europäischer Ebene soll es schon bald weitergehen: ab 2023 ist der Start für einen Exascale-Rechner geplant. „JUWELS ist ein Meilenstein auf dem Weg dorthin“, betont Lippert. Der Bau und Betrieb eines solchen Supercomputers gelte weltweit als nächster großer Schritt im Supercomputing. „Mit einer Rechenleistung von mindestens einem Exaflops wäre er noch mindestens zwölfmal schneller als der JUWELS.“

Mit Hochleistungsrechnern große Datenmengen bewältigen

Auch das Karlsruher Institut für Technologie (KIT) baut einen hocheffizienten Supercomputer. Im Sommer wird der „Hochleistungsrechner Karlsruhe“ (HoreKa) voll einsatzbereit sein und zu den zehn leistungsfähigsten Rechnern Europas gehören. „In den Materialwissenschaften wie auch bei Modellen zur Wettervorhersage und Klimaforschung, der Teilchenphysik und der Mobilitätsforschung können wir detaillierte Simulationen in immer kürzerer Zeit durchführen“, erläutert Jennifer Buchmüller, die am Steinbuch Centre for Computing (SCC) des KIT die Abteilung Scientific Computing and Simulation leitet. HoreKa ist auf die Bewältigung großer Datenmengen ausgelegt. Am KIT wird seit mehreren Jahren zudem Pionier- und Entwicklungsarbeit für die energieeffiziente Warmwasserkühlung von Hochleistungsrechnern geleistet. So soll HoreKa mit 47°C warmen Wasser gekühlt werden. Je leistungsfähiger Rechner sind, desto mehr Strom benötigen sie und desto mehr Wärme entsteht beim Betrieb. Herkömmliche Klimaanlagen, die mit Luft oder Wasser als Kühlmittel arbeiten, verbrauchen viel Energie, um dieses auf niedrige Temperaturen zu kühlen.

Sowohl in Karlsruhe als auch in Jülich haben Wissenschaftler unterschiedlichster Institutionen und wissenschaftlicher Disziplinen Zugriff auf die Supercomputer. „Um mit einem datenverarbeitenden Kraftpaket wie HoreKa umzugehen, braucht es besonderes Know-how“, betont Buchmüller. „Deshalb beraten wir die Forscherinnen und Forscher intensiv. Mit unserer Unterstützung können Forschende den Rechner in seiner vollen Leistungsfähigkeit ausreizen und effektiv nutzen.“

Forschern Zugang zu Supercomputern ermöglichen

Das Equipment, das Wissen und die Transferleistungen in Karlsruhe gaben im November den Ausschlag, das KIT zu einem der acht Zentren für Nationales Hochleistungsrechnen (NHR) zu machen. Das hat die Gemeinsame Wissenschaftskonferenz beschlossen, die die Wissenschaftsförderung von Bund und Ländern koordiniert. Somit werden Wissenschaftler zukünftig noch gewaltigere Hochleistungsrechner am KIT nutzen können. Bestehende Stärken von Hochleistungsrechenzentren werden weiterentwickelt und gebündelt. Das Ziel lautet, Forschern aus ganz Deutschland den Zugang zu Supercomputern zu ermöglichen. Gleichzeitig sollen über die NHR-Zentren die Kompetenzen der Anwender gestärkt, Nachwuchskräfte gefördert sowie die Aus- und Weiterbildung in diesem Bereich intensiviert werden.

Auch technisch sind die beiden Supercomputer-Standorte der Helmholtz-Gemeinschaft bereits jetzt für Kommendes gerüstet. „Schon bald werden wir Module integrieren können, die bislang noch Zukunftsmusik sind“, sagt Buchmüller. „Das können neuromorphe Module, programmierbare digitale Bausteine oder weitere Chiptechnologien sein, die sich noch in der Entwicklung befinden.“ Als erstes Modul wurden Anfang Dezember Knoten mit den neuartigen ARM-Prozessoren, wie sie im derzeit schnellsten Supercomputer der Welt, Fugaku, verbaut sind, installiert und in Betrieb genommen. Und das ist noch längst nicht alles, weiß Jennifer Buchmüller: „Zusätzlich sorgen wir mit maßgeschneiderten Diensten, neuen interaktiven Zugangswegen und plattformübergreifenden Datenzugriff dafür, dass wir den wissenschaftlichen Fortschritt durch Hochleistungsrechner voranbringen.“

Meldung des Forschungszentrums Jülich

Meldung des KIT

Die Zukunft der Supercomputer

Quantencomputer verlassen die Basis der Gesetze der klassischen Physik. Das binäre Prinzip „0 oder 1“ spielt darin keine Rolle. Die Funktionen beruhen hier auf den Gesetzen der Quantenmechanik. Analog zum klassischen Bit bei herkömmlichen Computern dient als kleinstmögliche Speichereinheit das Qbit, es definiert zugleich ein Maß für die Quanteninformation. Quantencomputer können in extrem großen Datenbanken schneller suchen und große Zahlen effizienter zerlegen und verarbeiten als klassische Computer. Dies würde viele mathematische Probleme leichter lösbar machen.

Neuromorphe Module sind nach dem Vorbild des menschlichen Gehirns konzipiert. Speziell für Aufgaben im Bereich der künstlichen Intelligenz gelten sie als vielversprechend. Bei der Objekterkennung oder der Vorhersage von Ereignissen in einer natürlichen Umgebung, die sich permanent verändert, ist das menschliche Gehirn herkömmlichen Computern weit überlegen. Das gilt auch für die Energieeffizienz: Mancher Supercomputer verbraucht so viel Energie wie eine Kleinstadt. Unser Gehirn dagegen verbraucht nur ungefähr so viel wie eine Glühbirne.

18.12.2020 , Lars Klaaßen
Druck-Version