HPC-Statuskonferenz 2025
Hoch- und Höchstleistungsrechnen in Deutschland

Go to first section
24. bis 26. September 2025
Konferenz
Waldweg 26
Göttingen
Vom 24. bis zum 26. September 2025 veranstalten die Gauß-Allianz, die Universität Göttingen und die GWDG in Kooperation mit dem BMFTR im Anschluss an die NHR-Konferenz die 14. HPC-Statuskonferenz auf dem Campus Universität Göttingen.

Als Plattform für den interdisziplinären Austausch und zur Netzwerkbildung thematisiert die dreitägige Veranstaltung aktuelle Entwicklungen, Projekte und Fragestellungen im Hoch- und Höchstleistungsrechnen. In den Bereichen Maschinen, Methoden und Anwendungen werden insbesondere die Ergebnisse der SCALEXA- und GreenHPC-Projekte des BMFTR vorgestellt. Ein weiterer Schwerpunkt liegt in der Verbindung und dem Austausch der KI-Forschung und der HPC-Gemeinschaft in Deutschland, insbesondere der Präsentation der beiden deutschen EuroHPC-AI-Factories.

Prof. Dr. Ramin Yahyapour
Universität Göttingen, GWDG

Prof. Dr. Wolfgang E. Nagel
Vorstandsvorsitzender Gauß-Allianz e. V.
Registrierung
Der Konferenzbeitrag beträgt 170 Euro (inkl. 19% MwSt.). Dieser wird vom lokalen Veranstalter zur Deckung der Unkosten im Rahmen der Ausrichtung der HPC-Statuskonferenz vereinnahmt und verantwortet. Die Gauß-Allianz hat im Zusammenhang mit dieser Veranstaltung keine Einnahmen und auch kein finanzielles Interesse.

Bitte melden Sie sich bis spätestens Freitag, den 5. September 2025, in der Veranstaltungsregistrierung der GWDG an.

Organisatorische Fragen richten Sie bitte an events@gwdg.de. Für alle anderen Fragen stehen wir Ihnen unter der Adresse service@gauss-allianz.de zur Verfügung.
Hotels
Bitte buchen Sie Ihre Übernachtungsmöglichkeit selbständig über eines der einschlägigen Buchungsportale.
Programm
Mittwoch, 24. 13:00 Uhr bis Freitag, 26. September 2025 15 Uhr


Registrierung
13:00
60'
Registrierung
Entwicklungen im nationalen HPC
14:00
10'
Grußwort
Hörsaal, Aula am Waldweg
14:10
20'
High-Performance Computing @ GWDG
Prof. Dr. Julian Kunkel
GWDG
Hörsaal, Aula am Waldweg
14:30
60'
Keynote: KI und Klimaforschung - der Chat-Bot, der Gedichte schreibt, wertet Klimadaten auf HPCs aus?!
Dr. Christopher Kadow
Deutsches Klimarechenzentrum (DKRZ)
Hörsaal, Aula am Waldweg
15:30
30' Kaffeepause
Aula am Waldweg
16:00
30'
Status und Ausblick des Gauss Centre for Supercomputing
Prof. Dr. Michael M. Resch
Gauss Centre for Supercomputing (GCS)
Hörsaal, Aula am Waldweg
16:30
30'
Status und Ausblick des NHR-Verbunds
Prof. Dr. Gerhard Wellein
Verein für Nationales Hochleistungsrechnen - NHR-Verein e.V., Vorstand
Hörsaal, Aula am Waldweg
17:20
20'
HammerHAI: Status und Perspektiven einer cloud-nativen KI-Fabrik
Dennis Hoppe
Höchstleistungsrechenzentrum Stuttgart (HLRS)
Hörsaal, Aula am Waldweg
17:20
20'
JAIF: Extreme-scale AI for Europe
Mathis Bode
Jülich Supercomputing Centre (JSC)
Hörsaal, Aula am Waldweg
Beschreibung
Die JUPITER AI Factory (JAIF) ist die europäische AI Factory um den schnellsten europäischen Supercomputer JUPITER. Das Jülich Supercomputing Centre (JSC) leitet ein exzellentes Konsortium, welches durch die RWTH Aachen University, die Fraunhofer Institute FIT und IAIS sowie hessian.AI als Hauptpartner ergänzt wird. Dies ist eine einzigartige Kombination aus Expertise im Bereich High-Performance Computing (HPC), Künstlicher Intelligenz (KI, engl.: AI) und industrieller Anwendung.
Dieser Vortrag skizziert den „One-Stop-Shop“, der in JAIF entwickelt wird und wie Start-Ups, KMUs und Industrie sowie die Wissenschaft von JAIF profitieren können. Einzelne Beispiele aus den Anwendungsgebieten von JAIF, Gesundheit, Energie, Klimawandel und Umwelt, Bildung, Kultur und Medien, öffentlicher Sektor, Finanzen und Versicherungen und Produktions- und Ingenieurtechnik, werden grob erläutert.
17:40
20'
Diskussion zum nationalen HPC sowie den EuroHPC AI-Factories
Hörsaal, Aula am Waldweg
SCALEXA & GreenHPC
08:45
15'
Grußwort
Simon Hechinger
Bundesministerium für Forschung, Technologie und Raumfahrt
Hörsaal, Aula am Waldweg
SCALEXA
Moderation: Dr. Marian Moldenhauer (VDI/VDE-IT)
09:00
60'
Multi-skalen Codes mit gekoppelten Ebenen
Prof. Dr.-Ing. habil. Jadran Vrabec
Fachgebiet Thermodynamik, Technische Universität Berlin
Prof. Dr. Marcus Müller
Georg-August-Universität Göttingen
Hörsaal, Aula am Waldweg
Beschreibung
Das gemeinsame Ziel dieser SCALEXA Projekte ist die Erweiterung und Effizienzsteigerung von extrem großen Simulationen mit Foki auf u.a. Partikelsimulationen unter Berücksichtigung komplexer Wechselwirkungen oder der Kopplung an Kontinuumsmodelle. In allen Fällen wird durch die Forschungsarbeit sowohl eine fundamentale Erweiterung hin zur Nutzung von Exascale-Computern als auch die realistische Beschreibung von synthetischen oder anwendungsnahen (bspw. biomolekular, geodynamisch) Prozessen angestrebt.



MExMeMo: Marcus Müller, Institut für Theoretische Physik, Georg-August-Universität Göttingen, Volker Abetz, Institut für Physikalische Chemie, Universität Hamburg, Christian Cyron, Institut für Werkstoffsystem-Modellierung, Helmholtz-Zentrum Hereon GmbH, Geesthacht, Andreas Herten, Jülich Supercomputing Centre,Forschungszentrum Jülich, Simon Pickartz, ParTec AG, Jülich und München

Die rechnergestützte Planung und Optimierung von Herstellungsverfahren weicher Materialien mittels digitaler Zwillinge – hier am Beispiel isoporöser Kopolymermembranen – ist hochkomplex, da Nichtgleichgewichtsprozesse von der molekularen Skala (Nanometer) bis hin zur Membranmorphologie (Mikrometer) gekoppelt sind [1–5]. Ziel des Projekts MexMeMo ist die nahtlose Verknüpfung des teilchenbasierten Simulationsprogramms SOMA mit einer effizienten Kontinuumsbeschreibung (Uneyama-Doi-Modell, UDM) und Methoden des maschinellen Lernens. So lassen sich anwendungsrelevante große Zeit- und Längenskalen erfassen, ohne den für das Materialdesign entscheidenden Bezug zu molekularen Eigenschaften zu verlieren.

Mit SOMA konnten wir bereits zentrale Prozessschritte wie Lösemittelverdampfung, Nichtlösemittel-induzierte Phasenseparation und glasartiges Erstarren detailliert untersuchen und mit Experimenten vergleichen [1–3]. Desweitern wurde eine hybride Kopplung zwischen der detaillieren Teilchensimulation SOMA und dem recheneffizienten Kontinuumsmodell UDM realisiert, bei der maschinelles Lernen gezielt jene zeitabhängigen Raumbereich (propagierende Strukturbildungsfront) identifiziert, in denen eine hochauflösende Teilchensimulation notwendig bleibt. Die unterschiedlichen Anforderungen beider Modellierungsebenen machen eine modulare Supercomputerarchitektur (MSA) – hier das JUWELS-Cluster-Booster-System am Jülich Supercomputing Centre – besonders geeignet. Ein Koordinator orchestriert die Kopplung, verwaltet Ressourcen dynamisch und ermöglicht den Datenaustausch zwischen SOMA und UDM via MPI im HDF5-Format. Das resultierende Multiskalen-Framework reduziert den Rechenaufwand um etwa eine Größenordnung und erlaubt eine systematische Optimierung von Membranmaterialien [3], beispielsweise die gezielte Einstellung der Porengröße durch Kopolymer-Mischungen [5]. Über diese konkrete Anwendung hinaus eröffnet die Koordinator-Software eine effiziente Nutzung von MSA-Systemen und erleichtert den Zugang durch minimalen Portierungsaufwand für die Kopplung von Anwendungen.

[1] Evaporation-induced self-assembly of diblock copolymer films in an electric field: a simulation study, O. Dreyer,L. Schneider, M. Radjabian, V. Abetz, and M. Müller, Macromolecules 56, 6880 (2023)
[2] Simulation of membrane fabrication via solvent evaporation and nonsolvent induced phase separation, N. Blagojevic and M. Müller, ACS Appl. Mater. Interfaces 15, 57913 (2023) Err 16, 12115 (2024)
[3] Towards predicting the formation of integral-asymmetric, isoporous diblock copolymer membranes, N. Blagojevic, S. Das, J. Xie, O. Dreyer, M. Radjabian, M. Held, V. Abetz, and M. Müller, Adv. Mater. 36, 2404560 (2024)
[4] On efficient simulation of self-assembling diblock copolymers using a peridynamic-enhanced Fourier spectral method, F. Mossaiby, G. Häfner, A. Hermann, C. Cyron, M. Müller, S. Silling, and A. Shojaei, Comput. Methods Appl. Mech. Eng. 439, 117878 (2025)
[5] Process-dependent control of structure size in binary diblock-copolymer blends, J. Xie and M. Müller, preprint
10:00
30' Kaffeepause
Aula am Waldweg
10:30
45'
Synergie bei CFD/matrixfreien Algorithmen
Dr. Benedict Geihe
Numerische Simulation, Department Mathematik/Informatik, Universität zu Köln
Prof. Dr. Martin Kronbichler
Angewandte Numerik, Fakultät für Mathematik, Ruhr-Universität Bochum
Hörsaal, Aula am Waldweg
11:15
45'
Ansätze zur Nutzung von heterogener Hardware und smarten Netzwerken
Prof. Dr. Michael Bader
Lehrstuhl für Wissenschaftliches Rechnen, Technische Universität München
Dr. Gregor Olenik
Lehrstuhl für Computational Mathematics, Technische Universität München
Hörsaal, Aula am Waldweg
Beschreibung
targetDART: Dynamic Migration of OpenMP GPU Kernels in Heterogeneous Clusters
targetDART is a novel runtime to let OpenMP target tasks be dynamically distributed between all nodes and devices of a heterogeneous GPU cluster. Programmers can modify the device clauses in an MPI+OpenMP-target application to specify migrateable kernels. Load is redistributed dynamically to mitigate temporary imbalances.
We evaluate the performance of task migration on a generic use case and for the hyperbolic PDE engine ExaHyPE.

Enhancing OpenFOAM with GPUs and New Algorithms - An Overview of the EXASIM Project
The EXASIM project had the ambitious goal to improve the performance of OpenFOAM by leveraging GPU hardware and utilizing modern algorithms. This presentation provides an overview of the anticipated results of the project and examines the specific software and simulation tools developed within the EXASIM project, which are accessible as open-source software via our public repository at github.com/exasim-project . As a case study, insights obtained from the 1st OpenFOAM HPC Challenge will be discussed.
12:00
60' Mittagspause
Aula am Waldweg
13:00
45'
Speichersysteme für das Exascale
Prof. Dr. Erwin Laure
Max Planck Computing and Data Facility
Patrick Höhn
Georg-August-Universität Göttingen
Hörsaal, Aula am Waldweg
13:45
30'
Weiterentwicklungen des ICON-Modells
Prof. Dr. Daniel Ruprecht
Lehrstuhl Computational Mathematics, Technische Universität Hamburg
Hörsaal, Aula am Waldweg
14:15
30' Kaffeepause
Aula am Waldweg
GreenHPC
Moderation: Dr. Annalena Salditt (VDI/VDE-IT)
14:45
15'
Netzwerkgekoppelte Beschleuniger für energieeffizientes heterogenes Rechnen
Prof. Dr. Benno Stabernack
Fraunhofer Institute for Telecommunications, Heinrich Hertz Institute (HHI)
Dr. Steffen Christgau
Zuse Institute Berlin
Hörsaal, Aula am Waldweg
Beschreibung
Im NAAICE-Projekt wurden programmierbare Beschleunigermodule (FPGAs) über das Netzwerk nutzbar gemacht. Diese neuartigen Network-Attached Accelerators (NAAs) versprechen gegenüber direktgekoppelten Beschleunigern mehr Flexibilität, eine bessere Auslastung und gleichzeitig einen geringeren Energieverbrauch. Der Vortrag geht auf Erfahrungen und Probleme bei der High-Level-Synthese zur Programmierung der NAAS und auf die Einbindung der NAAs in das Ressourcen-Management-Systems eines HPC Data Centers ein.
15:00
15'
SeqAn@FPGA : Engineering Meets Biomedicine
Hörsaal, Aula am Waldweg
15:15
15'
STXDemo - Energieeffiziente HPC Systeme ‘Made in Germany’
Dr. Jens Krüger
Fraunhofer ITWM
Hörsaal, Aula am Waldweg
Beschreibung
Sei es für Simulationen in den Ingenieurswissenschaften, in Chemie, Medizin oder im Bereich Cloud-Systeme und KI: Supercomputingsysteme gewinnen kontinuierlich an Bedeutung. Um die Wirklichkeit möglichst genau digital abzubilden werden zunehmend leistungsfähigere Supercomputer benötigt. Bei immer kleiner werdenden Technologien in der Chipentwicklung erhöht sich die Leistungsaufnahme dieser Systeme; die schnellsten liegen bereits bei über 25 MW Leistungsaufnahme. Beschleunigerhardware bietet Leistungs- und Effizienzvorteile für parallele Anwendungen. Mit der Entwicklung des Stencil- und Tensorbeschleuniger (STX) Systems arbeitet das Fraunhofer ITWM zusammen mit den Instituten IIS und IZM an einem Architekturansatz, der hohe Leistung mit sehr guter Energieeffizienz und realistischen Kosten für die Entwicklung verbindet. Das System wird mit einem Faktor von 3 bis 4 effizienter als GPU basierte Systeme sein und soll demnächst in Pilotsystemen zur Verfügung stehen. Im Projekt STXDemo kooperieren die Fraunhofer Institute mit der Zollner AG und den Rechenzentren der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) sowie dem FZJ, um eine auf PCI Gen5 basierende Beschleunigerkarte und das Systemkonzept umzusetzen. Ihr Ziel: Erste Pilotsysteme mit Schlüsselanwendungen aus der Quantenchromodynamik sowie der Strömungsdynamik in 2025. Weitere Informationen: https://www.itwm.fraunhofer.de/stx .
15:30
15'
WindHPC: Energy Efficiency and Renewable Energy for Distributed High-Performance Computing
Hörsaal, Aula am Waldweg
15:45
30' Kaffeepause
Aula am Waldweg
16:15
15'
ESN4NW: HPC-Rechenzentrum im Windrad … das RZ auf dem Weg zum Energiezentrum
Holger Nickel M.A.
AixpertSoft GmbH
Aula am Waldweg
Beschreibung
Durch intelligente Steuerung und Betrieb von HPC-Anlagen im Windrad ist ein möglicher Lösungsweg für die Zukunft aufgezeigt ... der Aufbau eines gekoppelten Energie – und Rechenzentrums mittels direkter Sektorenkopplung und Clusterung am Edge.
16:30
15'
Leveraging heterogeneity to optimize energy efficiency of climate simulations
Julius Plehn
Deutsches Klimarechenzentrum (DKRZ)
Aula am Waldweg
Beschreibung
Climate simulations are highly demanding, both computationally and energetically, creating challenges for sustainable high-performance computing. In the EECliPs project, we aim to make climate simulations with ICON more energy-efficient by running coupled experiments on suitable heterogeneous architectures. Our custom-built cluster integrates state-of-the-art CPUs and accelerators, enabling us to evaluate representative experiments across diverse hardware configurations. ICON supports the simulation of atmosphere, ocean, and ocean biogeochemistry on independent compute nodes, offering a flexible testbed for exploring heterogeneous setups. Using various energy-measurement techniques, we assess the efficiency of each architecture and design combined experiments to advance sustainable climate modelling.
16:45
15'
Energieoptimiertes High-Performance Computing für Finite-Elemente-Simulationen in der Produktentwicklung (ENSIMA)
Aula am Waldweg
17:00
15'
EE-HPC: Quelloffene Lösungsansätze für Monitoring und Systemeinstellungen für energieoptimierte Rechenzentren
Aula am Waldweg
17:15
15'
Digital twin for energy efficient data centers (IT-Zauber)
Aula am Waldweg
Abendveranstaltung
19:00
270'
Networking & Abendessen @ GWDG (Social Event)
Networking und ein gutes Abendessen in der inspirierenden Umgebung des Göttinger Rechenzentrums.

Mögliche Busverbindungen: https://fahrplaner.vbn.de
KI & HPC
09:00
60'
Keynote
Prof. Dr. Fabian Sinz
Professur für Machine Learning, Universität Göttingen
Aula am Waldweg
10:00
30' Kaffeepause
Aula am Waldweg
10:30
120'
Übersicht über die nationalen und europäischen KI-Entwicklungen
Aula am Waldweg
12:30
60' Mittagspause
Aula am Waldweg
13:30
30'
KI-Anwendungen
Aula am Waldweg
14:00
60'
Paneldiskussion: KI & HPC
Aula am Waldweg
15:00
15'
Schlusswort
Simon Hechinger
Bundesministerium für Forschung, Technologie und Raumfahrt
Prof. Dr. Wolfgang E. Nagel
Gauß-Allianz e. V.
Dülfersaal, Alte Mensa
 
 
Anfahrt und Veranstaltungsort
Universität Göttingen
Aula am Waldweg

Waldweg 26
37075 Göttingen

Weitere Informationen zum Veranstaltungsort erhalten Sie in der Rauminformation der Universität Göttingen .