Methodenforschung zu High-Performance Computing

Die GWDG ist als gemeinsames Rechen- und Kompetenzzentrum gleichzeitig in der eigenständigen Forschung aktiv. Mit der Berufung von Prof. Yahyapour im Jahr 2011 wurden die Forschungsaufgaben weiter ausgebaut. Dies ergänzt sich mit der starken Methodenforschung zu HPC-Anwendungen am Göttingen Campus, welche insbesondere die Forschung an Methoden zur Stärkung der oben genannten Campus-Schwerpunkte umfasst. Themenschwerpunkte in der Methodenforschung sind im Folgenden beschrieben.

Entwicklung von skalierbaren Solvern für molekulardynamische Simulationen

Simulationen für molekulardynamische Systemen erfordern viele parallele Rechnerressourcen. Eine Optimierung der Solver für hochparallele Skalierung auf künftigen Rechnerplattformen ist daher relevant für die effiziente Nutzung. Dies erfordert u.a. die Betrachtung von Kommunikationsnetzwerken, Multi-/Many-Core-Architekturen und Datenabhängigkeit.

Datenmanagement für HPC-Anwendungen

Die GWDG beschäftigt sich mit der drängende Problematik der wachsenden Datenmengen im HPC. Dies reicht von der Langzeitarchivierung von umfangreichen Rohdaten und den zugehörigen, reduzierten Ergebnisdaten aus auf HPC-Systemen durchgeführten, massiv parallelen Analysen bis zur Verbesserung des Zugangs zu solchen Daten. Beispiele werden im SFB 963 (Astrophysik), sowie in gemeinsamen Master-Projekten mit dem MPI Dynamik und Selbstorganisation (Strömungsexperimente) untersucht. Zum selben Themenkomplex gehört die Untersuchung von NGS-Workflows von der Produktion sehr großer Datenströme in Next-Generation-Sequencern bis zu deren paralleler/verteilter Analyse auf einem HPC-System. Hierfür hat die GWDG hat zusätzliche Expertise in der Abbildung von Bioinformatik-Workflows aufgebaut.

Virtualisierte HPC-Umgebungen

Für zahlreiche rechenintensive Anwendungen wird der Einsatz von Cloud-Umgebungen interessant. Hierüber lassen sich unterschiedliche Software-Umgebungen skalierbar betreiben. Untersucht wird wissenschaftlich die Virtualisierung, Isolierung und Vernetzung von HPC-Anwendungen. Ziel ist, HPC-Anwendungen und Workflows aus mehreren solcher Anwendungen flexibel, skalierbar und hoch-performant als Dienst auf typischen HPC-Systemen anbieten zu können, z.B. als individuelle virtuelle Cluster-Umgebungen, HPC-as-a-Service.

Kommunikationsprotokolle für HPC-Netzwerke

Im Rahmen einer Forschungskooperation zwischen der T-Systems SfR GmbH und der GWDG wird an Algorithmen für kollektive Kommunikationsoperationen in Hochleistungsrechnern, z.B. „Allreduce“ und „Barrier“-Synchronisationsmethoden gearbeitet. Diese können unter anderem für die Global Address Space Programming Interface (GASPI) genutzt werden. GASPI ist eine Kommunikationsschnittstelle, die im Gegensatz zum Nachrichtemodell MPI auf einem einseitigen Kommunikationsmodell basiert, indem sie direkt auf dem HPC-Netzwerk aufsetzt und dessen RDMA Fähigkeit ausnutzt.

Scheduling und Load-Balancing

Die effiziente Nutzung von Hoch- und Höchstleistungsrechnern erfordert Algorithmen, die automatische Lastverteilung und Job-Verteilung anhand von multi-kriterieller Optimierung erlauben. Dies umfasst Fragen nach heterogenen Ressourcen, Multi-/Many-Core-Differenzierung, Datenlokalität und Netzwerktopologien. Die Gruppe von Prof. Yahyapour hat Erfahrung aus diversen Projekten in Fragen des Ressourcen-Managements, des Schedulings und zu Partitionierungsproblemen, z.B. für CFD-Anwendungen. Von Bedeutung für diesen Bereich ist auch die Untersuchung dynamischer Anpassungen der Netzwerktopologie an HPC- und Big-Data-Workloads.