TOP500-Liste mit 36 deutschen Systemen
Auf der ISC High Performance in Hamburg wurde im Mai die Frühjahrsliste der TOP500-Supercomputer veröffentlicht. Im Vergleich zum November 2022 gab es wenige Änderungen. Auch die Gesamtleistung der gelisteten Systeme stieg lediglich um 7,7 % auf 5,2 ExaFlop/s, was die zweitniedrigste Steigerung seit 1993 ist. Die Top10 der Liste blieben unverändert: Das von HPE Cray am Oak Ridge National Laboratory installierte Frontier-System bleibt Listenerster und konnte seine Linpack-Rechenleistung durch Inbetriebnahme weiterer Knoten und Effizienzmaßnahmen um rund 8 % auf 1,194 ExaFlop/s steigern. Das schnellste europäische System auf dem dritten Platz bleibt das ebenfalls von HPE Cray gelieferte System LUMI mit einer Gesamtleistung von 309,1 PetaFlop/s am finnischen CSC – IT Center for Science. In Deutschland führt weiterhin der JUWELS-Booster am Forschungszentrum Jülich (44,1 PetaFlop/s) auf Platz 13 vor SuperMUC des Leibniz-Rechenzentrums in München/Garching (19,5 PetaFlop/s) auf Platz 31, Hawk am HLRS Stuttgart (19,3 PetaFlop/s) auf Platz 32 und Levante am DKRZ (10,1 PetaFlop/s) auf Platz 60. Den leistungsstärksten deutschen Neueinstieg erlangte das System Goethe-NHR der Universität Frankfurt (9,1 PetaFlop/s) auf Platz 70. Drei weitere deutsche Universitäten stiegen mit Sapphire-Rapid-Systemen in die Liste ein: die TU Darmstadt mit Lichtenberg II (3,1 PetaFlop/s) auf Platz 230, die TU Dresden mit Barnard (3,05 PetaFlop/s) auf Platz 238 und die Universität Duisburg-Essen mit AmplitUDE (1,95 PetaFlop/s) auf Platz 483. Weitere Informationen: top500.org/lists/top500/2023/06/
Büro des Weltklimaforschungsprogramms am DKRZ
Das Weltklimaforschungsprogramm (WCRP) eröffnet ein neues internationales Projektbüro am DKRZ, das vom BMBF unterstützt wird. Von hier aus wird das neue WCRP-Kernprojekt „Earth System Modeling and Monitoring (ESMO)“ gesteuert. In ESMO werden alle Modellierungs-, Datenassimilations- und Beobachtungsaktivitäten innerhalb des WCRP koordiniert und weiterentwickelt. Das neue Büro arbeitet eng mit der wissenschaftlichen Steuerungsgruppe von ESMO und dem WCRP-Sekretariat in Genf zusammen. Weitere Informationen: dkrz.de/de/ipo-esmo
Erweiterung des DKRZ-Datenarchivs
Das DKRZ hat im Juni zwei neue Magnetbandbibliotheken vom Typ Spectra Logic Tfinity der Firma Cristie Data in Betrieb genommen. Damit stehen weitere 300 Petabyte für die energieeffiziente und sichere Langzeitarchivierung von Klimamodelldaten bereit. Die beiden Bibliotheken verfügen über insgesamt 22.000 Stellplätze sowie 20 Bandlaufwerke des Typs LTO-8, so dass sich die Anzahl der bisher vorhandenen LTO-8-Laufwerke des DKRZ-Archivs verdoppelt. Mit dieser Beschaffung beginnt die schrittweise Ablösung der Oracle StorageTek-Magnetbandbibliotheken, die seit 14 Jahren am DKRZ in Betrieb sind. Insgesamt verfügt das DKRZ aktuell über neun Magnetbandbibliotheken mit 90.000 Stellplätzen. Die insgesamt 115 Laufwerke der Typen LTO-5, 6, 7 und 8 erlauben eine kontinuierliche Datenübertragungsrate von 15 Gigabyte/s. Die Datenverwaltung erfolgt über ein hierarchisches Speichermanagementsystem der Firma Stronglink. Das Archiv des DKRZ speichert derzeit ein Datenvolumen von 180 Petabyte an Klimamodelldaten der letzten 30 Jahre, jährlich kommen über 20 Petabyte neu hinzu. Weitere Informationen: dkrz.de/de/erweiterung-datenarchiv
NFDI-Dienst für leichteren Datenzugang
Die Nationale Forschungsdateninfrastruktur (NFDI) will wertvolle Datenbestände von Wissenschaft und Forschung für das gesamte deutsche Wissenschaftssystem systematisch nach den FAIR-Prinzipien (findable, accessible, interoperable, re-usable) erschließen und vernetzen. Ein zentrales Ziel innerhalb von NFDI ist es, einen einheitlichen Zugriff auf Daten, Software und Rechenressourcen sowie einen souveränen Datenaustausch und kollaboratives Arbeiten zu ermöglichen. Um dies zu erreichen, ist geplant, bestehende und neu entstehende Identity- und Access-Management-Systeme (IAM) so zu verbinden und zu erweitern, dass Forschende aus verschiedenen Bereichen und Institutionen so einfach wie möglich auf digitale Ressourcen innerhalb von NFDI zugreifen können. Der neue Basisdienst IAM4NFDI wird sich darum kümmern, eine Authentication and Authorization Infrastructure (AAI) aufzubauen und bereitzustellen. Diese AAI der NFDI-Gemeinschaft wird mit der nationalen Identitätsföderation DFN-AAI verbunden sein. Weitere Informationen: base4nfdi.de/
Anbindung von HPC an Windparks
Das vom HLRS koordinierte Projekt „In Windkraftanlagen integrierte Second-Life-Rechencluster (WindHPC)“ hat das Ziel, überschüssige Energie aus Windkraftanlagen effizient einzusetzen und mehr Ökostrom für HPC zu nutzen. Innerhalb des Projekts wird analysiert, wie sich Simulationen auf die Energieeffizienz auswirken, wie Rechenaufgaben innerhalb einer verteilten Rechenarchitektur zugewiesen und Simulationsalgorithmen ausgewählt werden. WindHPC wird auch Methoden zur Nutzung von Leistungsdaten für das Autotuning von Algorithmen und die intelligente Planung einer Simulation entwickeln. Das Projekt fokussiert sich auf praktische HPC-Anwendungen für die Verfahrenstechnik in der chemischen Industrie und entwickelt digitale Zwillinge, mit denen unter anderem der Stromverbrauch bei der Visualisierung untersucht wird. Somit werden wissenschaftliche Ergebnisse mit möglichst geringem Energieverbrauch vereint. WindHPC wird vom BMBF innerhalb der GreenHPC-Initiative gefördert. Weitere Informationen: hlrs.de/de/news/detail/anbindung-von-hpc-an-windparks
Exascale-Simulationen für Biomedizinanwendungen
Im Projekt „Rechenzeitoptimierte Exascale-Simulationen für biomedizinische Anwendungen (FlexFMM)“ sollen Wechselwirkungen zwischen Biomolekülen realistisch simuliert werden, um Fortschritte in der Biomedizin voranzutreiben. Dadurch sollen ein besseres Verständnis von Krankheiten ermöglicht und die Entwicklung neuer Medikamente beschleunigt werden. Das vom JSC koordinierte Projekt entwickelt daher ein flexibles Elektrostatik-Modul für den quelloffenen Molekulardynamik-Code GROMACS, das auf der schnellen Multipolmethode (Fast Multipole Method, FMM) basiert. Diese Methode umgeht bisherige Skalierungsprobleme und ermöglicht realitätsnahe Simulationen von großen Biomolekülsystemen. Die erweiterte Elektrostatik berücksichtigt auch dynamische Protonierungen von Biomolekülen, um Simulationen in zellulären Umgebungen genauer abzubilden. Zudem erleichtert die gitterfreie FMM die Simulation komplexer Systeme wie Aerosole und Wasserstrahlexplosionen. Mit dem Hintergrund, Hard- und Software möglichst effizient zu nutzen, konzentriert sich FlexFMM auf prototypische, ARM-basierte Hardware des Kooperationspartners SiPearl mit SVE-Vektoreinheiten und HBM-Speicher. Das Projekt wird durch das BMBF-Programm SCALEXA für 3 Jahre gefördert. Weitere Informationen: go.fzj.de/flexfmm
Analyseplattform für die Umweltforschung
Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) und das Leibniz-Rechenzentrum (LRZ) nehmen die Plattform für High Performance Data Analytics (HPDA) „terrabyte“ in Betrieb. Hier können Forschende Erderkundungsdaten des DLR auswerten. Den Kern von terrabyte bilden ThinkSystem-Server des Typs SD650-N-V2 sowie DSS-G-Speicher von Lenovo. Die damit verfügbaren 61 CPU-Knoten mit Prozessoren des Typs Xeon Platinum von Intel sowie 15 GPU-Knoten des Typs A100 von NVIDIA werden durch rund 50 Petabyte Onlinespeicher ergänzt. Auf der Plattform finden sich neben dem LRZ-Softwarestack für Hoch- und Höchstleistungsrechnen auch Open-Source-Software, Algorithmen und KI-Werkzeuge des DLR. Nutzende können online auf terrabyte zugreifen und dort Datensätze so komfortabel wie bei Cloud-Diensten verwalten. Weitere Informationen: lrz.de/presse/ereignisse/2023-06-14-terrabyte-start-dt/
Gemeinsames Portal für NHR-Rechenzeitanträge
Mit einer gemeinsamen Datenschutzvereinbarung im NHR-Verbund ist der Grundstein für das gemeinsame Antragsportal NHR-JARDS gelegt. Seit dem Start von NHR vor zwei Jahren stehen Forschenden deutscher Hochschulen die Kapazitäten der NHR-Hochleistungsrechner deutschlandweit und standortunabhängig zur Verfügung. Seit dem 1. Juni erfolgt die Beantragung von Rechenzeit an fünf der neun NHR-Zentren hierfür online über das gemeinsame Portal NHR-JARDS – die anderen vier Zentren folgen in Kürze. Weitere Informationen: nhr-verein.de/rechnernutzung
Energy Management Workshop: Call for Papers
Energieeffizienz ist für das LRZ ein zentrales Thema. Während der Konferenz CARLA2023 vom 18. bis 22. September in Cartagena/Kolumbien organisiert das LRZ-Team daher einen Workshop zum Thema Energieeffizienz. Im Programm der internationalen Konferenz rund um das Supercomputing setzt der geplante Workshop einen Schwerpunkt auf die Energie- und Ressourceneffizienz in Rechenzentren. Neben Green IT im HPC thematisiert er Möglichkeiten, den Energiebedarf neuer Supercomputer beispielsweise durch geschicktes Job-Management sparsamer zu machen. Forschende können noch bis zum 30. Juli Vortragskonzepte für den Workshop einreichen. Gefragt sind Beiträge zu nachhaltigen IT-Strategien im Rechenzentrum, zu effizientem Design von HPC-Systemen sowie zu Lösungen für die Kontrolle und Steuerung des Energiebedarfs oder Tricks zur Optimierung von Codes und Algorithmen. Weitere Informationen und Anmeldung: ee-workshop.for.lrz.de/