Das Programm „Supercomputing & Big Data"

Sowohl das Höchstleistungsrechnen (Supercomputing) als auch das Management und die Analyse großer Mengen strukturierter und vor allem unstrukturierter Daten (Big Data) haben sich für die theoretische und experimentelle Forschung sowie für die industrielle Produkt- und Produktionsoptimierung zu einer strategischen Schlüsseltechnologie entwickelt. Die Komplexität der in Wissenschaft und Technik untersuchten Systeme und Prozesse nimmt stetig zu und somit auch die Anforderungen, die an diese Systeme und Methoden gestellt werden. Ebenso stellen die in aktuellen und zukünftigen Großexperimenten sowie in aufwändigen Simulationsrechnungen generierten hochkomplexen Datenflüsse sowie die Speicherung und Verarbeitung riesiger Datenmengen eine besondere Herausforderung dar.

Das Hauptziel des Programms ist es, im Rahmen nationaler und europäischer Strukturen unverzichtbare Instrumente und Infrastrukturen des Höchstleistungsrechnens und für das Management und die Analyse großskaliger Datenbestände für die deutsche und europäische Wissenschaft zur Verfügung zu stellen. Entsprechend dieser Ziele geht es zum einen um die Entwicklung von Methoden und Werkzeugen sowie den Aufbau und Betrieb von z. T. Helmholtz- weiten Simulationslaboratorien, in denen Fachwissenschaftler und Computerexperten zusammen mit Anwendern an der Lösung Community-spezifischer HPC-Probleme arbeiten. Zum anderen geht es um die Erforschung und Entwicklung föderierter Systeme, die u. a. besonders die Behandlung und Analyse großer Datenmengen unterstützen. Ein dritter Bereich umfasst die Beschaffung, Installation und dem Betrieb von Supercomputern der höchsten Leistungsklasse in Jülich sowie der dazu notwendigen Infrastruktur in Abstimmung mit den nationalen und europäischen Partnern.

Druck-Version

Kontakt