Februar 2024

Gauß-Allianz newsletter - Issue 114

Exascale-Supercomputing kommt ans HLRS

Die Universität Stuttgart und Hewlett Packard Enterprise (HPE) haben kürzlich die stufenweise Installation von zwei neuen Supercomputern am HLRS angekündigt. Zunächst wird im Jahr 2025 ein HPC-System des Typs HPE Cray EX4000 namens Hunter mit einer Spitzenleistung von 39 PetaFlop/s in Betrieb genommen. Mit diesem Schritt wird die Nutzungsgemeinschaft des HLRS auf die Programmierung der massiv-parallelen, GPU-beschleunigten Architektur des Exascale-Rechners Herder vorbereitet, der dann im Jahr 2027 eingeweiht werden soll. Beide Systeme werden Infrastrukturen für Simulationen, KI und Höchstleistungsdatenanalyse bieten und Spitzenforschung in der rechnergestützten Ingenieurwissenschaft sowie in der angewandten Wissenschaft ermöglichen. Die Gesamtkosten für Hunter und Herder belaufen sich auf 115 Mio. Euro, die über das GCS finanziert und je zur Hälfte vom BMBF sowie vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg getragen werden. Weitere Informationen: hlrs.de/de/news/detail/exascale-supercomputing-kommt-nach-stuttgart .

Neue Supercomputer für NHR@FAU

Das NHR@FAU hat der Firma MEGWARE den Auftrag für die Installation zweier Supercomputer erteilt. Mit den neuen Systemen wächst das nordbayerische NHR-Zentrum weiter, das Forschenden der FAU, der Region sowie bundesweit im Rahmen des NHR-Verbundes Rechenleistung zur Verfügung stellt. Die Hochschule Hof und die Katholische Universität Eichstätt-Ingolstadt sind ebenfalls an der Beschaffung beteiligt. Das CPU-basierte System, das in der ersten Jahreshälfte 2025 installiert werden soll, wird mehr als 300 Knoten mit je 2 AMD-CPUs des Typs Turin (Zen 5c-Mikroarchitektur mit hoher Kernzahl) und 768 Gigabytes Hauptspeicher umfassen. Damit werden für Anwendungen aus allen Wissenschaftsbereichen gute Performance und Skalierbarkeit geboten. Zuvor ist für die zweite Jahreshälfte 2024 die Installation eines GPGPU-Pendants für Anwendungen rund um Maschinelles Lernen und KI geplant. Diese Architektur, die auch für Simulationen in den Lebenswissenschaften und der Chemie geeignet ist, wird mehr als 40 Knoten mit je 4 H100-Beschleunigern von NVIDIA enthalten. Beide Systeme werden über eine direkte Wasserkühlung verfügen, wodurch ein energieeffizienter Betrieb und erhebliche Einsparungen bei der Infrastruktur erreicht werden. Lediglich die Netzteile der GPGPU-Rechenknoten werden noch mit Luft gekühlt. Weitere Informationen: go-nhr.de/FAU2024sys .

Weiterer Quantencomputer am LRZ

Gemeinsam mit dem Munich Quantum Valley (MQV) beschafft das LRZ einen weiteren Quantencomputer für sein Quantum Integration Centre (QIC). Dieser arbeitet mit 20 Qubits, und stammt vom Innsbrucker Start-up Alpine Quantum Technologies. Die Bayerischen Staatsministerien für Wissenschaft und Kunst sowie für Wirtschaft, Landesentwicklung und Energie finanzieren den Computer im Rahmen der Hightech Agenda Bayern mit rund 9,8 Mio. Euro. Das System steht den MQV-Mitgliedsorganisationen über eine Cloud-Anbindung zur Verfügung. Es wird für die Softwareentwicklung eingesetzt und zur Beschleunigung in die Supercomputer des LRZ integriert. Bei der eingesetzten Technologie werden Qubits aus elektrisch aufgeladenen Atomen (Ionen) in Fallen eingefangen und mit Laserstrahlen manipuliert. Dies verlangsamt zwar die Operationen, allerdings sinken dadurch die Fehlerraten und das System kann bei Raumtemperatur betrieben werden. Weitere Informationen: quantum.lrz.de/de/bits-von-qubits/detail/quantensystem-auf-basis-von-ionenfallen-fuers-munich-quantum-valley .

High-Tech-Zuhause für Exascale-Supercomputer

Das Forschungszentrum Jülich und die Firma Eviden (Atos-Gruppe) haben die Lieferung eines modularen Rechenzentrums (Modular Data Centre – MDC) für JUPITER vertraglich besiegelt. Der für Simulationen und großskalige KI-Anwendungen ausgelegte Supercomputer soll als erster in Europa eine Leistung von mehr als 1 ExaFlop/s erreichen. Für seine im Herbst geplante Inbetriebnahme entsteht aus rund 50 Container-Modulen ein über 2300 m2 großes Rechenzentrum. Neben vergleichsweise geringen Planungs- und Aufbauzeiten reduzieren sich dadurch die Bau- und Betriebskosten. Die Stromversorgungs- und Kühlungsinfrastruktur lässt sich im konsequent modularen Konzept flexibel an zukünftige Anforderungen anpassen. Das MDC wird durch das BMBF finanziert. Für die technischen Anlagen kommen das BMBF und das Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen zu gleichen Teilen auf. Weitere Informationen: go.fzj.de/mdc-fuer-jupiter.

ScalNEXT: Nutzung von Smart Networks für HPC

Moderne HPC-Systeme sind meist aus einzelnen, unabhängigen Knoten mit eigenen Betriebssysteminstanzen aufgebaut. Diese sind durch Netzwerke gekoppelt, die zwar eine hohe Leistung aufweisen, aber zumeist passiv sind und lediglich dem Datenaustausch zwischen den Knoten dienen. Netzwerke, in denen Netzwerkadapter und Switches rekonfigurierbar und programmierbar sind, sogenannte Smart Networks, bieten neue Möglichkeiten, gezielt Aufgaben an das Netzwerk abzugeben und damit die eigentlichen Rechenknoten zu entlasten. Dies erfordert einen generellen Umbau der System- und Softwarearchitektur. In dem vom BMBF geförderten Projekt ScalNEXT werden neue Ansätze entwickelt, die es erlauben, Berechnungen in das Netzwerk auszulagern, zentrale Netzwerkressourcen für zentrale Dienste zu nutzen sowie die Knoten von der Kontrolle der Kommunikation zu entlasten, um diese stattdessen auf den Netzwerkadaptern durchzuführen. Damit soll sowohl die Rechenleistung als auch die Skalierbarkeit verbessert werden. Das Verbundvorhaben mit den Partnern APS Networks, JGU Mainz, LRZ, KIT, RWTH Aachen und TU München wird im Rahmen der BMBF-Maßnahme „Neue Methoden und Technologien für das Exascale-Höchstleistungsrechnen (SCALEXA)“ für 3 Jahre gefördert. Weitere Informationen: ce.cit.tum.de/caps/laufende-projekte/scalnext/ .

Wie KI klassisches Simulieren bereichert

Neben klassischen Prozessoren arbeitet SuperMUC-NG Phase 2 mit 960 GPUs von Intel. Aus gutem Grund: Immer mehr Forschende wollen Simulationen mit KI-Methoden erweitern, um mehr Daten auszuwerten. Von besonderem Interesse sind dabei Surrogat- oder Ersatzmodelle sowie Emulatoren, also Annäherungen an eine mathematisch-physikalisch berechnete Modellierung. Surrogatmodelle entstehen durch Verfahren wie Mustererkennung und Maschinelles Lernen. Sie können mit den Simulationsergebnissen trainiert werden und anschließend dabei helfen, deren Parameter zu variieren und in kurzer Zeit weitere Szenarien zu erzeugen. Darüber hinaus ersetzen sie rechenintensive Teile einer Simulation. Surrogatmodelle ergänzen eine Modellierung durch Daten über natürliche Phänomene, die nur schwer oder höchst aufwändig zu berechnen sind. Vier gängige Szenarien der Methodenkombination, die aktuell in den Natur- und Lebenswissenschaften verbreitet sind, beschreibt das LRZ in einem Artikel: lrz.de/presse/ereignisse/2023-12-06-Ersatzmodell .

HPC-Innovationspreis für HLRS und WIKKI GmbH

Das HLRS und die WIKKI GmbH wurden in der 19. Auflage des HPC Innovation Excellence Awards für bemerkenswerte Leistungen auf dem Gebiet des Hoch- und Höchstleistungsrechnens ausgezeichnet. Die Preisverleihung im Rahmen der SC23 würdigt die Entwicklung eines kohärenten Datenformats der beiden Partner, das die Speicherung unstrukturierter, polyhedraler Gitterdaten neu formuliert. Der Ansatz ermöglicht es, mit OpenFOAM – einer beliebten Open-Source-Software für rechnergestützte Strömungsmechanik – größere Simulationen deutlich effizienter auszuführen. Mithilfe des kohärenten Dateiformats hat das Team eine groß angelegte OpenFOAM-Simulation auf 4.096 Knoten (524.288 CPU-Kerne) des Supercomputers Hawk am HLRS effizient ausgeführt. Diese Zahl ist mehr als viermal so hoch wie der bisherige Skalierungsrekord der Software. Weitere Informationen: hlrs.de/de/news/detail/hlrs-und-wikki-gmbh-gewinnen-hpc-innovation-excellence-award .

HPC-Statuskonferenz 2024 – Save the date

Vom 24. bis 26. April veranstalten die Gauß-Allianz und das ZIH der TU Dresden in Kooperation mit dem BMBF die jährliche HPC-Statuskonferenz auf dem Campus der TU Dresden. Als Plattform für den interdisziplinären Austausch und zur Netzwerkbildung thematisiert die dreitägige Veranstaltung aktuelle Entwicklungen, Projekte und Fragestellungen im Hoch- und Höchstleistungsrechnen. Insbesondere werden Ziele und erste Ergebnisse nationaler Vorhaben der aktuellen SCALEXA- sowie GreenHPC-Förderung des BMBF vorgestellt. Der thematische Fokus liegt auf Infrastrukturen, Methoden und Anwendungen. Die zahlreichen Bezüge der HPC-Community und der KI-Forschung in Deutschland werden auf der Konferenz ebenfalls Akzente setzen. Dieser Programmteil wird durch das ScaDS.AI Dresden/Leipzig in enger Abstimmung mit den anderen nationalen KI-Kompetenzzentren gestaltet. Weitere Informationen und Anmeldung: gauss-allianz.de/de/hpc-statuskonferenz-2024 .