Dezember 2020 / Januar 2021

Gauß-Allianz Infobrief - Ausgabe 86

Start frei für NHR ab 2021

Auf Grundlage der Empfehlungen des NHR-Strategieausschusses hat die Gemeinsame Wissenschaftskonferenz (GWK) am 13. November die Aufnahme der Hochleistungsrechenzentren an den Standorten FAU Erlangen, GAU Göttingen, Karlsruher Institut für Technologie, RWTH Aachen, TU Darmstadt, TU Dresden, Universität Paderborn und am Zuse Institut Berlin in die gemeinsame Förderung von Bund und Ländern beschlossen. Insgesamt stellen Bund und Länder gemeinsam jährlich bis zu 62,5 Mio. Euro bereit, mit denen Investitionen und Betrieb der Rechenzentren über einen Zeitraum von grundsätzlich jeweils zehn Jahren finanziert werden. Die Zentren wurden zuvor einzeln durch die DFG begutachtet. Die vorläufige Geschäftsstelle, die aktuell beim DFN-Verein angesiedelt ist, übernimmt neben der Unterstützung des Strategieausschusses nun auch die Unterstützung des NHR-Verbunds. Weitere Informationen: gwk-bonn.de/fileadmin/Redaktion/Dokumente/Pressemitteilungen/pm2020-11.pdf

Förderung von Künstlicher Intelligenz

Die GWK hat am 13. November neben der NHR-Förderung außerdem die Bund-Länder-Vereinbarung „Künstliche Intelligenz in der Hochschulbildung“ mit bis zu 133 Mio. Euro bei einer 4-jährigen Laufzeit bewilligt und eine Vereinbarung über die gemeinsame Förderung von KI-Kompetenzzentren von jährlich bis zu 50 Mio. Euro beschlossen. Mit der Förderung von KI-Kompetenzzentren wollen der Bund und die jeweiligen Sitzländer der fünf seit 2019 geförderten Zentren dieser Art mit universitärem Schwerpunkt dauerhaft und institutionell unterstützen. Bei erfolgreicher wissenschaftlicher Begutachtung ist vorgesehen, die bestehenden Zentren ab dem 1. Januar 2022 zu verstetigen. Weitere Informationen: gwk-bonn.de/fileadmin/Redaktion/Dokumente/Pressemitteilungen/pm2020-10.pdf .

GA-Mitglieder in der aktuellen TOP500-Liste

Der um ein neues Booster-Modul erweiterte GCS-Supercomputer JUWELS des Jülich Supercomputing Centre (JSC) ist aktuell der schnellste Höchstleistungsrechner Europas. In der neuesten TOP500-Liste der weltweit leistungsfähigsten Supercomputer belegt er mit 44,1 PetaFlop/s im Linpack-Benchmarktest den 7. Rang und rangiert auf der aktuellen Green500-Liste auf Platz 3. Er ist somit das energieeffizienteste System in der höchsten Leistungsklasse. Die beiden anderen GCS-Höchstleistungsrechner reihen sich unter die Top-20 der weltweit schnellsten HPC-Systeme ein: Der SuperMUC-NG des Leibniz-Rechenzentrums in Garching (LRZ) liegt mit einer Leistung von 19,5 PetaFlop/s auf Platz 15, direkt gefolgt von Hawk des Höchstleistungsrechenzentrums Stuttgart (HLRS) mit 19,3 PetaFlop/s. In der zeitgleich veröffentlichten HPCG-Benchmark-Liste (High-Performance Conjugate Gradient – ein Test, der HPC-Systeme unter realen Anwendungsbedingungen misst) sind die drei GCS-Supercomputer gut positioniert mit JUWELS auf Platz 5, Hawk auf Platz 18 und SuperMUC-NG auf Platz 22. Der Göttinger Supercomputer „Emmy“ des Norddeutschen Verbundes für Hoch- und Höchstleistungsrechnen (HLRN) erreichte gemeinsam mit der neuesten Hardwareerweiterung der GWDG im Linpack-Benchmark 5,95 PetaFlop/s und somit Platz 47 der TOP500. Mit 3,1 PetaFlop/s erreicht das System Lichtenberg II der TU Darmstadt Platz 100. Auf der Green500 ist es mit Platz 55 das derzeit effizienteste deutsche Universitätscluster. Weitere Informationen: top500.org/

Europas schnellster Supercomputer: JUWELS

Am 23. November wurde am JSC die JUWELS-Erweiterung JUWELS-Booster in Betrieb genommen. Das neue Modul, das eng mit dem 2018 installierte JUWELS-Cluster verbunden ist, wurde von den Projektpartnern JSC, Atos, ParTec und NVIDIA entwickelt. Mit 73 PetaFlop/s Spitzenleistung ist JUWELS-Booster weltweit das siebtschnellste System und Nummer 1 in Europa. Als einer der ersten Supercomputer ist er mit NVIDIA-GPUs des Typs A100 Tensor ausgestattet. Etwa 12 Mio. sogenannte CUDA-Kerne (FP64) vereint der Booster auf seinen über 3.700 Grafikprozessoren, die über ein HDR-InfiniBand-Höchstleistungsnetz von NVIDIA Mellanox mit 200 Gb/s miteinander verbunden sind. Damit werden Simulationen mit noch höherer Auflösung und größerer Realitätsnähe ermöglicht. Auch für den Einsatz künstlicher Intelligenz ist das Modul gut ausgestattet. Bereits in der Installationsphase hatten einige Anwendergruppen Zugriff auf den neuen Rechner, um Codes frühzeitig auf die neue Architektur zu portieren und wertvolle Rückmeldungen über die Systemfähigkeiten zu geben. JUWELS wird vom JSC als Mitglied des GCS betrieben und vom BMBF und dem Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen gefördert. Weitere Informationen: fz-juelich.de/ias/jsc/juwels

Neues Exabyte-Datenarchiv am DKRZ

Das DKRZ vergibt einen Fünfjahresvertrag über Lieferung und Service eines neuen Hierarchischen Datenmanagementsystems (HSM) an Cristie Data. Das von dieser Firma konzipierte System setzt auf die Speicherverwaltung StrongLink von StrongBox Data Solutions sowie auf Server und „OceanStor“-Storage der Firma Huawei. Die bereits vorhandenen 150 Petabyte an Klimamodelldaten werden innerhalb einer Woche in das neue HSM übernommen. Es wird die bereits vorhandenen 9 Bandbibliotheken mit mehr als 79.000 Stellplätzen sowie 90 LTO-Laufwerken verwalten. Dank der Skalierbarkeit des neuen HSM können zukünftig Datenmengen von mehr als einem Exabyte (1.000 Petabyte) gespeichert und verwaltet werden; jährlich können bis zu 120 Petabyte an neuen Daten archiviert werden. Die Verwendung der offenen Standards LTFS und S3 verbessern die Zukunftssicherheit und erweitern die Möglichkeiten zur Bereitstellung von Daten zwischen verschiedenen Institutionen. Das technisch ausgereifte Metadatenmanagement vereinfacht das Auffinden von Daten anhand automatisch generierter und benutzerdefinierter Metadaten. Die Inbetriebnahme erfolgt Mitte März 2021. Weitere Informationen: dkrz.de/kommunikation/aktuelles/neues-hsm/

Neues Exzellenzzentrum für Quantenchemie in Europa

Zur Vorbereitung auf künftige Exascale-Systeme finanziert die Europäische Kommission Exzellenzzentren (Centres of Excellence, CoE) für verschiedene Anwendungsbereiche. Quantum-Monte-Carlo-Methoden (QMC) sind aufgrund ihrer Skalierbarkeit auf extrem parallelen Supercomputern besonders vielversprechend. Hierbei können mit fortschrittlichen und systematisch verbesserungsfähigen stochastischen Methoden vollständig konsistente quantenmechanische Elektronenprobleme simuliert werden. Das neue CoE TREX (Targeting Real Chemical Accuracy at the Exascale) bringt Forschende, die in Europa international anerkannte QMC-Codes entwickelt haben, und HPC-Experten/innen, u. a. vom JSC, zusammen. Ziel ist es, die Anwendungen für den Einsatz auf Pre-Exascale- und Exascale-Systemen vorzubereiten. Schwerpunkte sind die Portierung dieser Codes auf verschiedene Typen von GPUs sowie die Entwicklung und Implementierung einer gemeinsamen Bibliothek für QMC. Im CoE-TREX-Konsortium, das von der Universität Twente in den Niederlanden koordiniert wird, sind Partner aus sieben Ländern verbunden. Das Projekt begann am 1. Oktober und hat eine Laufzeit von drei Jahren. Weitere Informationen: trex-coe.eu

Kommende Technologien schon heute erproben

Die Technologiebandbreite im HPC-Umfeld ist so groß wie nie. Aber welcher Ansatz den Ansprüchen der Forschung am besten gerecht wird, ist nicht immer eindeutig. Am LRZ setzen sich Expert/innen lange im Voraus mit der kommenden Generation von Supercomputern auseinander, um auf die Anforderungen der Nutzenden optimal vorbereitet zu sein. Mit dem Programm BEAST (Bavarian Energy Architecture Software Testbed) baut das LRZ eine ambitionierte Testumgebung auf, die Antworten liefern soll – auch mit Blick auf die Energieeffizienz der Systeme. Drei unterschiedliche Teilsysteme sind bereits installiert. Ebenso wurden Knoten auf Basis aktueller AMD-Rome-Prozessoren mit MI50-GPUs des gleichen Herstellers installiert. Neben dieser x86-Architektur wurden Knoten mit den auf ARM basierenden Prozessoren Marvell ThunderX2 implementiert, die durch NVIDIA-GPUs vom Typ Tesla V-100 unterstützt werden. Der jüngste Zugang: Der ebenfalls auf ARM basierende Fujitsu-Prozessor A64FX, der beim derzeit schnellsten Supercomputer, dem japanischen Fugaku, zum Einsatz kommt. Der Ausbau von BEAST ist bereits geplant; in Frage kommen beispielsweise die Evaluierung exotischerer Architekturen wie FPGAs oder neuromorphe Ansätze. Zugang erhalten ausgewählte LRZ-Partner aus der Wissenschaft. Außerdem steht das System für die Ausbildung und Schulung der Studierenden zur Verfügung. Mit Praktika an den Münchner Universitäten können sich angehende Informatiker/innen in diese Technologien einarbeiten und Kontakte zu Forschung und Industrie knüpfen. Weitere Informationen: lrz.de/presse/ereignisse/2020-11-19_Kommende-Technologien-schon-heute-erproben/

AIM: Künstliche Intelligenz für die Erdsystemforschung

Zur Unterstützung der Forschenden der Helmholtz-Gemeinschaft bei der Evaluation sowie beim Einsatz von Machine Learning (ML) und Künstlicher Intelligenz für die Erdsystemforschung finanziert die Helmholtz-Gemeinschaft das spezialisierte Support-Team AIM (Artificial Intelligence innovates Earth System Analytics and Modelling) am DKRZ. Das Spektrum der Anfragen an dieses AIM-Team reicht von technischen und methodischen Herausforderungen bis hin zur Planung und Implementierung komplexer ML-Workflows. So konnten für das Geoforschungszentrum bereits ML-Verfahren mithilfe von künstlichen neuronalen Netzen dafür eingesetzt werden, das starke Rauschen sowie statistische Abweichungen in Messdaten satellitengestützter Navigationssysteme zu überwinden und Windgeschwindigkeiten über Ozeanen zu berechnen. Auf Anfrage des KIT untersucht das AIM-Team aktuell, wie sich Berechnungen eines Simulationsmodells für Atmosphärenchemie mithilfe von ML-Verfahren emulieren lassen, um Modellberechnungen mit weniger Rechenaufwand durchzuführen. Weitere Informationen: dkrz.de/kommunikation/aktuelles/AIM