Februar 2021

Gauß-Allianz newsletter - Issue 87

JURECA-DC am JSC in Betrieb

Im Dezember 2020 wurde am Jülich Supercomputing Centre das Nachfolgesystem des bisherigen JURECA-Clusters, ein von Atos geliefertes sogenanntes JURECA-DC-Modul (DC für „data centric“), in Betrieb genommen. Diese erste Ausbaustufe von JURECA-DC besteht aus 384 Rechenknoten mit jeweils 128 EPYC-Rome-Kernen von AMD pro Knoten sowie 48 Knoten, die zusätzlich mit vier A100-GPUs von NVIDIA ausgestattet sind. Damit enthält das System etwa zwei Drittel der CPU-Knoten und 25 % der GPU-Knoten der geplanten Endausbaustufe, die Ende des ersten Quartals 2021 zur Verfügung stehen wird. Im Vergleich zum Vorgängermodell werden alle wichtigen Systemleistungsindikatoren verbessert. So wird die Gesamtspeicherkapazität um den Faktor 1,6 und die Spitzenleistung um ca. 7,8 erhöht. JURECA-DC ist eng mit dem JURECA-Booster gekoppelt, wodurch die gleichzeitige Nutzung aller Ressourcen innerhalb von Workflows ermöglicht wird. Durch innovative Funktionen, z. B. eine neuartige systemintegrierte, nichtflüchtige Speicherpartition und einen Zugriff mit hoher Bandbreite auf die JUST-Speicherschichten, können datenintensive Simulationen effizienter ausgeführt werden. Die Rechenzeit auf JURECA-DC wird überwiegend Helmholtz-intern sowie den Wissenschaftler/innen des Forschungszen-trums Jülich zur Verfügung gestellt. Darüber hinaus wird ein Teil der Rechenzeit auch europaweit für die Forschung nutzbar sein. Weitere Informationen: fz-juelich.de/ias/jsc/jureca.

HLRS-Supercomputer Hawk wird ausgebaut

Das HLRS hat den Systemlieferanten Hewlett Packard Enterprise (HPE) mit der Erweiterung des HLRS-Supercomputers Hawk um 192 A100-GPUs der Firma NVIDIA beauftragt. Durch diesen Schritt wird dem HLRS-Höchstleistungsrechner, der aktuell auf Rang 16 in der TOP500-Liste der schnellsten Supercomputer der Welt geführt wird, 120 PetaFlop/s an Rechenleistung für Künstliche Intelligenz (KI) hinzufügt. Zudem wandelt sich die Hawk-Architektur von einer reinen Zentralrechnertechnologie zu einer Hybrid-Plattform und wird dadurch insbesondere für Deep-Learning-Anwendungen optimiert. Neue Arten von Arbeitsabläufen, welche die Simulationen unter Nutzung von HPC-Systemen mit Big-Data-Methoden kombinieren, werden damit möglich. Die Nutzenden haben somit fortan die Möglichkeit, Anwendungen aus den Bereichen Deep-Learning, Hochleistungsdatenanalyse und KI auf demselben System durchzuführen, das sie aktuell bereits für ihre höchst anspruchsvollen, rechenintensiven Simulationen nutzen: auf Hawk. Weitere Informationen: hlrs.de/de/whats-new/news/detail-view/2020-12-14/

Neues Machine-Learning-Cluster für ScaDS.AI

Im Februar wird im Rechenzentrum des ZIH der TU Dresden ein neues HPC-Cluster in den Nutzerbetrieb übergeben, das besonders für das maschinelle Lernen ausgelegt ist. Es wurde aus einem Sonderbudget des BMBF für das sächsische Big-Data- und KI-Kompetenzzentrum ScaDS. AI finanziert und im Dezember 2020, nach europaweiter Ausschreibung, durch die NEC Deutschland GmbH installiert. Derzeit befindet es sich in der Abnahmephase. Herzstück und wesentlich für die Rechenleistung sind die insgesamt 272 A100-GPUs der Firma NVIDIA; je acht dieser GPUs sind in jedem der 34 Rechenknoten enthalten. Darüber hinaus bietet jeder Knoten einen Hauptspeicher von 1 Terabyte und einen lokalen NVMe-Zwischenspeicher von 3,2 Terabyte, um die GPUs schnell mit Daten zu versorgen, sowie je zwei HDR-Infiniband-Anschlüsse mit zusammen 400 Gb/s für die Anbindung an die zentralen HPC-Speicher. Die maximale Energieaufnahme eines Knotens beträgt 4,8 kW. Eine direkte Warmwasserkühlung sorgt für eine hohe Energieeffizienz. Zugang zum System kann über einen HPC-DA-Projektantrag auf den Webseiten des ZIH beantragt werden. Weitere Informationen: tu-dresden.de/zih/hochleistungsrechnen/zugang

Neue Magnetbandkassetten fürs DKRZ-Archiv

Im November 2020 erweiterte das DKRZ sein Datenarchiv um 4.500 Magnetbandkassetten, so dass Klimaforschenden zusätzliche 40,5 Petabyte für die Langzeitarchivierung ihrer Modellergebnisse zur Verfügung stehen. Die neuen Magnetbandkassetten des Typs LTO-7 mit einer unkomprimierten Speicherkapazität von je neun Terabyte basieren auf Bariumferrit und haben 3.584 Spuren. Gleichzeitig haben etwa 2.900 LTO-4-Bänder (mit je 800 Gigabyte Speicherkapazität) ausgedient, die aus der Bandbibliothek entnommen wurden. Insgesamt bietet das Datenarchiv am DKRZ Platz für 77.000 Magnetbänder sowie zusätzliche 10.000 Stellplätze in Garching. Momentan sind im Archiv etwa 150 Petabyte Klimamodelldaten – verteilt auf knapp 44 Millionen Dateien – gespeichert.

Gründung des FAU HPC Performance Labs

Die Friedrich-Alexander-Universität Erlangen-Nürnberg blickt auf 40 Jahre Bereitstellung von Hochleistungsrechen-Ressourcen am RRZE und Erforschung neuartiger Multiprozessorarchitekturen am Institut für Informatik zurück. Zur Bündelung der Expertise wurde nun das HPC Performance Lab (Perf-Lab) als Kompetenzzentrum für HPC-Methodenforschung gegründet. Es wird gemeinsam vom neugegründeten „Nationalen Hochleistungsrechenzentrum Erlangen“ (NHR@FAU) und dem Zentralinstitut für Scientific Computing (ZISC) betrieben. Mitglieder sind neben der HPC-Professur von Prof. Wellein fünf weitere Informatiklehrstühle sowie das bayerische Kompetenznetzwerk für wissenschaftliches Hochleistungsrechnen (KONWIHR). Die Mitglieder decken die ganze Breite in der HPC-Methodenforschung ab: von Performance-Engineering und -Modellierung über Codegenerierungstechniken und domänenspezifische Sprachen, die Entwicklung sowie Optimierung hochperformanter heterogener Anwendungen in extremem Maßstab bis zu Hardware-Software-Co-Design. Ein wesentlicher Schwerpunkt ist die Entwicklung von Softwarewerkzeugen und -bibliotheken, wie LIKWID und WaLBerla. Als besonderen Service innerhalb des Perf-Labs betreibt NHR@FAU ein Testcluster mit einer Vielzahl von CPU- und GPU-Architekturen, das auf Anfrage allgemein zugänglich ist. Neben den Forschungsaktivitäten stellt das Perf-Lab seine Expertise der nationalen HPC-Community im Rahmen gemeinsamer Performance-Projekte sowie Schulungen und Tutorials zur Verfügung. Weitere Informationen: perf-lab.hpc.fau.de

SuperMUC simuliert die Entstehung von Sternen

Sterne entstehen durch turbulente Prozesse, ähnlich denen, die sich beobachten lassen, wenn Milch in Kaffee gegeben wird. Bei der Entstehung von Sternen treffen allerdings interstellare Gase, Moleküle und Staub aufeinander. Was dabei genau passiert, hat jetzt ein Forschungsteam auf dem SuperMUC am LRZ in Garching simuliert: Prof. Dr. Ralf Klessen von der Universität Heidelberg sowie Prof. Dr. Christoph Federrath von der Australian National University Canberra leiteten die größte Simulation der interstellaren Turbulenz. An ihr lässt sich zeigen, wann und wie sich Sterne bilden. Für diese Arbeit wurden komplexe Gleichungen entwickelt – beispielsweise um verschiedene Gasdichten zu berechnen und unterschiedliche Maßstäbe zu beachten. Insgesamt wurden für das Modell mehr als eine Billion Auflösungselemente berechnet. Die Simulation besteht aus mehr als 100 Einzelaufnahmen, von denen jede rund 23 Terabyte an Festplattenplatz beansprucht. Insgesamt arbeiteten dafür am Garchinger Supercomputer mehr als 65.000 Rechenkerne während ca. 45 Mio. Rechenzeitstunden. Die Simulation benötigte rund 130 Terabyte Arbeitsspeicher. Die Arbeit wurde kürzlich im renommierten Fachmagazin Nature Astronomy veröffentlicht. Weitere Informationen: nature.com/articles/s41550-020-01282-z

Zusammenführung europäischer COVID-19-Daten

Das HLRS ist Mitglied des internationalen Projekts „ORCHESTRA – Connecting European Cohorts to In-crease Common and Effective Response to SARS-CoV-2 Pandemic“. Ziel des Projektes ist die Zusammenführung von Studienkohorten in Europa zur raschen Informationsverbreitung im öffentlichen Gesundheitswesen sowie für die Ausarbeitung von Impfstrategien zu COVID-19. Das HLRS übernimmt dabei die Aufgabe, die Infrastruktur und innovative Datenmanagementlösungen für die Erfassung und Analyse von Patientendaten auf nationaler Ebene zu koordinieren und zu implementieren sowie den pan-europäischen Portaldienst zur Zusammenführung von Daten aus ganz Europa mitzuentwerfen. Das ORCHESTRA-Konsortium, dessen Leitung bei der Universität Verona liegt, hat seine Arbeit am 1. Dezember 2020 für eine Laufzeit von drei Jahren aufgenommen. Die Förderung durch Horizon 2020 beträgt 20 Mio. Euro. Weitere Informationen: hlrs.de/news/detail-view/2020-12-03/