Juli 2025

Gauß-Allianz newsletter - Issue 127

TOP500-Liste mit 41 deutschen Systemen

Die ISC 2025 feierte in diesem Jahr nicht nur ihr 40-jähriges Jubiläum, sondern mit der Veröffentlichung der 65. TOP500-Liste im Juni auch die neuen Platzierungen im weltweiten Supercomputing. Während sich an der absoluten Spitze der Liste im Vergleich zu November 2024 nur wenig veränderte, setzt das neue EuroHPC-System JUPITER (793,4 PetaFLOP/s) am JSC mit Platz 4 weltweit einen neuen Meilenstein – als derzeit schnellstes europäisches und zugleich energieeffizientestes System unter den Top 5. Der von Eviden installierte JUPITER Booster (BullSequana XH3000) nutzt 24.000 Superchips des Typs GH200 Grace Hopper von NVIDIA, die für hochparallele Anwendungen optimiert sind. Weitere deutsche Systeme im Ranking sind JUWELS Booster Module (44,1 PetaFlop/s) am JSC auf Platz 43, die neuen Systeme Helma (32,2 PetaFlop/s) am NHR@FAU in Erlangen auf Platz 51, Hunter (31,6 PetaFlop/s) am HLRS in Stuttgart auf Platz 54 sowie Viper-GPU (31,1 PetaFlop/s) am MPCDF in Garching auf Platz 55. Die Gesamtleistung aller gelisteten Supercomputer stieg um 17,9 % auf 13,8 ExaFlop/s. Insgesamt zählt die aktuelle TOP500-Liste weiterhin 41 Systeme aus Deutschland, darunter 37 von Mitgliedern der Gauß-Allianz, von denen 8 zu den Top100 zählen. Auch im Hinblick auf Energieeffizienz zeigt sich die deutsche Infrastruktur stark: In der Green500-Liste belegt das von EuroHPC und dem JSC betriebene System JEDI weiterhin weltweit den ersten Platz. Zwei weitere deutsche Systeme – das neu eingezogene Cluster Otus am PC2 in Paderborn auf Platz 5 sowie Capella am ZIH, das wie im Vorjahr Platz 6 hält – befinden sich ebenfalls unter den Top10 der Green500. In der IO500 erreichte das System Helma den 3. Rang hinter den bisherigen Spitzenreitern des Argonne National Laboratory und LRZ. Weitere Informationen: top500.org/lists/top500/2025/06/ .

GPU-Optimierung für Tröpfchensimulation in Stuttgart

Ein Team am Institut für Thermodynamik der Luft- und Raumfahrt (ITLR) der Universität Stuttgart bereitet den Strömungssimulationscode FS3D für den Einsatz auf dem GPU-basierten Supercomputer Hunter des HLRS vor. Unterstützt wird es dabei dabei durch HPC-Expert:innen des HLRS sowie Fachleute von HPE und AMD. FS3D simuliert grundlegende physikalische Prozesse in Tröpfchen und findet u.a. Anwendung in der Wettervorhersage und bei der Optimierung von Einspritzdüsen. Im Rahmen eines Workshops und intensiver Zusammenarbeit entwickelte das ITLR-Team eine OpenMP-basierte Strategie für die GPU-Portierung. Testläufe auf einem Vorab-Cluster ermöglichten es, FS3D rechtzeitig zur Inbetriebnahme von Hunter im Februar produktiv einzusetzen. Die Arbeit an weiteren Optimierungen läuft, sodass FS3D auch auf dem kommenden Exascale-System Herder nutzbar sein wird. Weitere Informationen: hlrs.de/de/news/detail/user-support-for-code-porting-to-gpus .

CAP7: Deutschlands Beitrag zu CMIP7

Mit dem Auftakttreffen Ende Februar beim DWD in Hamburg ist die CAP7-Initiative offiziell gestartet. Ziel von CAP7 ist es, mit den in Deutschland entwickelten und eingesetzten Erdsystemmodellen einen sichtbaren und qualitativ hochwertigen deutschen Beitrag zur siebten Phase des internationalen Klimamodell-Vergleichsprojekts (CMIP7) zu leisten. Vertreter:innen von 7 Forschungseinrichtungen, darunter vom Projektkoordinator DWD, dem DKRZ, der Universität Hamburg, dem Alfred-Wegener-Institut und dem Max-Planck-Institut für Meteorologie, verständigten sich auf gemeinsame Ziele und Meilensteine. Im Fokus stehen DECK-Simulationen, sowie Klimaprojektionen auf Basis verschiedener Zukunftsszenarien. Die Daten werden nach FAIR-Prinzipien aufbereitet und mit dem ESMValTool evaluiert. Das DKRZ übernimmt eine zentrale Rolle bei der Datenverarbeitung und -bereitstellung für Forschung und Öffentlichkeit. Weitere Informationen: dkrz.de/de/kommunikation/aktuelles/cap7-kickoff .

Benchmarking für LLM-Training auf Hunter

Im Rahmen der AI Factory HammerHAI hat das HLRS gemeinsam mit Seedbox.AI, HPE und AMD die erste Benchmark-Studie zur APU des Typs Instinct MI300A von AMD im Training großer Sprachmodelle durchgeführt. Getestet wurde die innovative Hybridarchitektur – CPU, GPU und High-Bandwidth Memory in einem Baustein – auf dem APU-basierten HLRS-Supercomputer Hunter. Zum Einsatz kam ein multilingual ausgelegtes Sprachmodell mit einem Trainingsdatensatz von 20 Mrd. Token. Dank einer optimierten Speichernutzung ließ sich die Trainingsleistung nahezu linear auf bis zu 256 APUs skalieren. Ergänzt wurde der Test von der Methode „SimplePrune“ von Seedbox.AI, mit der sich energieeffiziente Trainingsprozesse realisieren lassen. Trotz deutlich reduziertem Modellumfang konnten dabei Ergebnisse auf dem Niveau herkömmlicher Modelle erzielt werden. Die Studie zeigt das Potenzial europäischer Infrastrukturen für KI-Anwendungen – unabhängig von außereuropäischen Cloud-Anbietern. Weitere Informationen: hlrs.de/de/news/detail/erste-benchmark-studie-der-amd-mi300a-apu-fuer-das-training-grosser-sprachmodelle .

KI-Forschung: Innovatives Modell zur Erdbeobachtung

Mit TerraMind ist ein neues, wegweisendes KI-Modell zur Erdbeobachtung veröffentlicht worden – entwickelt im Rahmen des von der Europäischen Weltraumorganisation geförderten Projektes „FAST-EO“. Es handelt sich um das erste generative, multimodale Foundation-Model für Geodaten, das unterschiedliche Eingangsdaten wie Satellitenbilder, Höhendaten, Landnutzungskarten und Beschreibungen in natürlicher Sprache miteinander verknüpft. Dank seiner Any-to-Any-Architektur kann TerraMind nicht nur mit verschiedenen Ein- und Ausgaben arbeiten, sondern auch fehlende Modalitäten selbstständig ergänzen. Trainiert wurde das Modell mit mehr als 500 Mrd. Token – auf Pixel- und Tokenebene in 9 Modalitäten – auf dem JUWELS Booster des JSC. Im anspruchsvollen PANGAEA-Benchmark erzielte es Spitzenleistungen und übertraf die bisherigen Modelle bei Schlüsselaufgaben wie Landbedeckungsklassifizierung, Veränderungserkennung und Umweltmonitoring deutlich. TerraMind ist als Open Source auf Hugging Face verfügbar und setzt neue Maßstäbe für den verantwortungsvollen Umgang mit unserem Planeten. Weitere Informationen: go.fzj.de/terramind .

Digitale Zwillinge programmieren

Digitale Modelle von Herz, Lunge oder Hirn entstehen oft auf Basis mathematischer Simulationen – etwa mithilfe des Open-Source-Programmpakets deal.II. Die rund 600.000 Codezeilen starke C++-Bibliothek bietet umfangreiche mathematische Werkzeuge zur Lösung partieller Differenzialgleichungen und unterstützt so die Entwicklung präziser numerischer Löser. Damit lassen sich Strömungen von Flüssigkeiten und Gasen simulieren oder die mechanischen Eigenschaften von Festkörpern berechnen: die zentralen Grundlagen für den Aufbau digitaler Zwillinge menschlicher Organe. Mitentwickelt wurde deal.II von Martin Kronbichler, Professor für Mathematik an der Ruhr-Universität Bochum. Er koordiniert ein interdisziplinäres Projekt mit 12 Hochschulen und Forschungseinrichtungen, darunter das LRZ. Ziel ist es, deal.II, darauf basierende Codes sowie Anwendungen für kommende heterogene Supercomputer auf Exascale-Niveau weiterzuentwickeln. So soll „dealii-X“ entstehen – ein Framework für Simulationen des menschlichen Körpers auf höchstem Rechenniveau. Weitere Informationen: https://tiny.badw.de/z5bM1y .

Performance des Molekulardynamik-Codes AMBER

Um Antragstellende im NHR-Kontext bei der Auswahl geeigneter Ressourcen und der Einschätzung des Rechenzeitbedarfs zu unterstützen, wurde am NHR@FAU das Laufzeitverhalten des Molekulardynamik-Codes AMBER auf NVIDIA-GPUs analysiert. Grundlage waren Standard-Benchmarks mit der CUDA-Version des Moduls pmemd. Die neue Version AMBER24 zeigte auf allen getesteten GPUs eine mindestens gleichwertige, teils bessere Performance als ihr Vorgänger. Für kleinere Benchmark-Systeme liefern die GPUs RTX2080Ti, RTX3080, V100, A40 und A100 vergleichbare Ergebnisse. Bei größeren Simulationen steht die A100 zwar etwas besser da, dies wiegt jedoch den deutlich höheren Preis bei weitem nicht auf. Für typische Anwendungen mit AMBER wird daher der Einsatz der A40 empfohlen, sofern keine speziellen Anforderungen vorliegen. Weitere Informationen: go-nhr.de/AMBER24 .

HPC-Statuskonferenz in Göttingen

Vom 24. bis 26. September findet im Anschluss an die NHR-Konferenz die diesjährige HPC-Statuskonferenz in Göttingen statt. Veranstaltet durch die Gauß-Allianz, die Georg-August Universität Göttingen, die GWDG und in Kooperation mit dem BMFTR wird auf der dreitätigen HPC-Statuskonferenz wieder zu aktuellen Entwicklungen im Hoch- und Höchstleistungsrechnen berichtet. Als Plattform für den interdisziplinären Austausch und zur Netzwerkbildung thematisiert die Konferenz die aktuellen Forschungsaktivitäten und Fragestellungen rund um das HPC in Deutschland. In den Bereichen Maschinen, Methoden und Anwendungen werden insbesondere die Ergebnisse der SCALEXA- und GreenHPC-Projekte des BMFTR vorgestellt. Ein weiterer Schwerpunkt liegt in der Verbindung und dem Austausch der KI-Forschung und der HPC-Gemeinschaft in Deutschland, insbesondere der Präsentation der beiden deutschen EuroHPC-AI-Factories. Weitere Informationen und Anmeldung: gauss-allianz.de/de/hpc-statuskonferenz-2025 .