HPC-Statuskonferenz 2025
Hoch- und Höchstleistungsrechnen in Deutschland

Go to first section
24. bis 26. September 2025
Konferenz
Waldweg 26
Göttingen
Vom 24. bis zum 26. September 2025 veranstalten die Gauß-Allianz, die Universität Göttingen und die GWDG in Kooperation mit dem BMFTR im Anschluss an die NHR-Konferenz die 14. HPC-Statuskonferenz auf dem Campus Universität Göttingen.

Als Plattform für den interdisziplinären Austausch und zur Netzwerkbildung thematisiert die dreitägige Veranstaltung aktuelle Entwicklungen, Projekte und Fragestellungen im Hoch- und Höchstleistungsrechnen. In den Bereichen Maschinen, Methoden und Anwendungen werden insbesondere die Ergebnisse der SCALEXA- und GreenHPC-Projekte des BMFTR vorgestellt. Ein weiterer Schwerpunkt liegt in der Verbindung und dem Austausch der KI-Forschung und der HPC-Gemeinschaft in Deutschland, insbesondere der Präsentation der beiden deutschen EuroHPC-AI-Factories.

Prof. Dr. Ramin Yahyapour
Universität Göttingen, GWDG

Prof. Dr. Wolfgang E. Nagel
Vorstandsvorsitzender Gauß-Allianz e. V.
Registrierung
Der Konferenzbeitrag beträgt 170 Euro (inkl. 19% MwSt.). Dieser wird vom lokalen Veranstalter zur Deckung der Unkosten im Rahmen der Ausrichtung der HPC-Statuskonferenz vereinnahmt und verantwortet. Die Gauß-Allianz hat im Zusammenhang mit dieser Veranstaltung keine Einnahmen und auch kein finanzielles Interesse.

Bitte melden Sie sich bis spätestens Freitag, den 5. September 2025, in der Veranstaltungsregistrierung der GWDG an.

Organisatorische Fragen richten Sie bitte an events@gwdg.de. Für alle anderen Fragen stehen wir Ihnen unter der Adresse service@gauss-allianz.de zur Verfügung.
Hotels
Bitte buchen Sie Ihre Übernachtungsmöglichkeit selbständig über eines der einschlägigen Buchungsportale.
Programm
Mittwoch, 24. 13:00 Uhr bis Freitag, 26. September 2025 15 Uhr


Registrierung
13:00
60'
Registrierung
Entwicklungen im nationalen HPC
14:00
10'
Grußwort
Prof. Dr. Wolfgang E. Nagel
Gauß-Allianz e. V.
Hörsaal, Aula am Waldweg
14:10
20'
High-Performance Computing @ GWDG
Prof. Dr. Julian Kunkel
GWDG
Hörsaal, Aula am Waldweg
Beschreibung
Die vier nationalen KI-Servicezentren HPI, WestAI, KISSKI und Hessian AI bieten deutschlandweit Unterstützung bei der Integration von KI-Methoden in Forschung und Anwendung. In diesem Überblicksvortrag werden die unterschiedlichen Schwerpunkte und Aktivitäten der Zentren vorgestellt: Das HPI konzentriert sich auf die Entwicklung und den Einsatz vertrauenswürdiger KI. WestAI unterstützt Forschende und Unternehmen bei der Implementierung von KI-Lösungen. KISSKI fördert die Zusammenarbeit von KI und Wissenschaft mit Fokus auf Nachhaltigkeit. Hessian AI verbindet KI-Forschung mit gesellschaftlichen Herausforderungen. Gemeinsam bilden die Zentren ein deutschlandweites Netzwerk zur Förderung von KI-Kompetenzen.
14:30
60'
Keynote: KI und Klimaforschung - der Chat-Bot, der Gedichte schreibt, wertet Klimadaten auf HPCs aus?!
Dr. Christopher Kadow
Deutsches Klimarechenzentrum (DKRZ)
Hörsaal, Aula am Waldweg
15:30
30' Kaffeepause
Aula am Waldweg
16:00
30'
Status und Ausblick des Gauss Centre for Supercomputing
Prof. Dr. Michael M. Resch
Gauss Centre for Supercomputing (GCS)
Hörsaal, Aula am Waldweg
16:30
30'
Status und Ausblick des NHR-Verbunds
Prof. Dr. Gerhard Wellein
Verein für Nationales Hochleistungsrechnen - NHR-Verein e.V., Vorstand
Hörsaal, Aula am Waldweg
17:00
20'
HammerHAI: Status und Perspektiven einer cloud-nativen KI-Fabrik
Prof. Dr. Michael M. Resch
Höchstleistungsrechenzentrum Stuttgart (HLRS)
Hörsaal, Aula am Waldweg
17:20
20'
JAIF: Extreme-scale AI for Europe
Mathis Bode
Jülich Supercomputing Centre (JSC)
Hörsaal, Aula am Waldweg
Beschreibung
Die JUPITER AI Factory (JAIF) ist die europäische AI Factory um den schnellsten europäischen Supercomputer JUPITER. Das Jülich Supercomputing Centre (JSC) leitet ein exzellentes Konsortium, welches durch die RWTH Aachen University, die Fraunhofer Institute FIT und IAIS sowie hessian.AI als Hauptpartner ergänzt wird. Dies ist eine einzigartige Kombination aus Expertise im Bereich High-Performance Computing (HPC), Künstlicher Intelligenz (KI, engl.: AI) und industrieller Anwendung.
Dieser Vortrag skizziert den „One-Stop-Shop“, der in JAIF entwickelt wird und wie Start-Ups, KMUs und Industrie sowie die Wissenschaft von JAIF profitieren können. Einzelne Beispiele aus den Anwendungsgebieten von JAIF, Gesundheit, Energie, Klimawandel und Umwelt, Bildung, Kultur und Medien, öffentlicher Sektor, Finanzen und Versicherungen und Produktions- und Ingenieurtechnik, werden grob erläutert.
17:40
20'
Diskussion zum nationalen HPC sowie den EuroHPC AI-Factories
Hörsaal, Aula am Waldweg
SCALEXA & GreenHPC
08:45
15'
Grußwort
Simon Hechinger
Bundesministerium für Forschung, Technologie und Raumfahrt
Hörsaal, Aula am Waldweg
SCALEXA
Moderation: Dr. Marian Moldenhauer (VDI/VDE-IT)
09:00
60'
Multi-skalen Codes mit gekoppelten Ebenen
Prof. Dr.-Ing. habil. Jadran Vrabec
Fachgebiet Thermodynamik, Technische Universität Berlin
Dr. Nils Kohl
Department für Geo- und Umweltwissenschaften, Geophysik, Ludwig-Maximilians-Universität München
Dr. Ivo Kabadshow
Jülich Supercomputing Centre, Research Centre Jülich
Prof. Dr. Marcus Müller
Georg-August-Universität Göttingen
Hörsaal, Aula am Waldweg
Beschreibung
Das gemeinsame Ziel dieser SCALEXA Projekte ist die Erweiterung und Effizienzsteigerung von extrem großen Simulationen mit Foki auf u.a. Partikelsimulationen unter Berücksichtigung komplexer Wechselwirkungen oder der Kopplung an Kontinuumsmodelle. In allen Fällen wird durch die Forschungsarbeit sowohl eine fundamentale Erweiterung hin zur Nutzung von Exascale-Computern als auch die realistische Beschreibung von synthetischen oder anwendungsnahen (bspw. biomolekular, geodynamisch) Prozessen angestrebt.

3xA: Hans-Joachim Bungartz, Technische Universität München, Philipp Neumann, Karsten Meier, Helmut-Schmidt-Universität Hamburg, Christoph Niethammer, Michael Resch, HLRS, Jadran Vrabec, Technische Universität Berlin (Vortrag GA Tagung)

Das Projekt „3xa: Exascale-Simulationssoftware für Systeme mit Dreikörperwechselwirkungen“ verfolgt das Ziel, hochskalierbare Methoden für die Simulation von Partikelsystemen mit Dreikörperwechselwirkungen zu entwickeln. Im Rahmen eines interdisziplinären und ganzheitlichen Ansatzes werden drei zentrale Ebenen adressiert: Auf Knotenebene sollen vektorisierte Kernels sowie auto-tuning-gestützte, hardwareunabhängige Multi- und Manycore-Algorithmen entwickelt werden. Auf Inter-Knoten-Ebene stehen dynamische Lastverteilung, innovative Zonal-Methods-Konzepte für verbessertes Strong-Scaling sowie optimierte Kommunikationsverfahren zwischen GPUs im Fokus. Ergänzend werden adaptive Partikeldarstellungen auf Basis sogenannter Adaptive-Resolution-Schemata erforscht, um die Effizienz weiter zu steigern. Zusammengeführt soll dies eine exascale-fähige Simulationsumgebung für dreikörperpotenzialbasierte Partikelsysteme schaffen, deren Leistungsfähigkeit exemplarisch anhand von Anwendungen in der chemischen Industrie demonstriert wird.

CoMPS: Ziel des Vorhabens ist die Entwicklung einer Simulationsumgebung für die Modellierung physikalischer Phänomene in der Geodynamik über mehrere Größenskalen hinweg. Dafür sollen mehrere hochskalierbare Simulationsprogramme miteinander gekoppelt werden, die sowohl auf kontinuierlichen als auch auf diskreten Modellen beruhen. Neben der Entwicklung neuartiger Techniken zur Codegenerierung liegt der methodische Schwerpunkt auf der Untersuchung von fortschrittlichen numerischen Algorithmen mit variabler Berechnungsgenauigkeit. Dies ermöglicht effiziente Lösungen für komplexe physikalische Schnittstellenprobleme.

FlexFMM:Ziel des FlexFMM Projektes ist die Durchführung hoch-realistischer MD Simulationen unter Verwendung einer flexiblen fast multipole-basierten Elektrostatik in GROMACS. Damit werden Biomoleküle in komplexen chemischen Umgebungen äußerst realistisch modelliert, indem sie dynamische Protonierungen mittels Kopplung an einen konstanten pH-Wert erlaubt. Zudem ermöglicht die Verwendung der FMM neue Anwendungen dank gitterfreier Darstellung inhomogener und nicht-periodischer Systeme.
Zusätzlich wird im Co-Design prototypische Exascale Hardware mit GPUs im Entwicklungszyklus berücksichtigt. Das Projekt erlaubt damit ein tiefgreifenderes Verständnis biomolekularer Prozess und die Beschleunigung biomedizinische Entwicklungen auf modernsten, europäischen HPC Systemen.

MExMeMo: Marcus Müller, Institut für Theoretische Physik, Georg-August-Universität Göttingen, Volker Abetz, Institut für Physikalische Chemie, Universität Hamburg, Christian Cyron, Institut für Werkstoffsystem-Modellierung, Helmholtz-Zentrum Hereon GmbH, Geesthacht, Andreas Herten, Jülich Supercomputing Centre,Forschungszentrum Jülich, Simon Pickartz, ParTec AG, Jülich und München

Die rechnergestützte Planung und Optimierung von Herstellungsverfahren weicher Materialien mittels digitaler Zwillinge – hier am Beispiel isoporöser Kopolymermembranen – ist hochkomplex, da Nichtgleichgewichtsprozesse von der molekularen Skala (Nanometer) bis hin zur Membranmorphologie (Mikrometer) gekoppelt sind [1–5]. Ziel des Projekts MexMeMo ist die nahtlose Verknüpfung des teilchenbasierten Simulationsprogramms SOMA mit einer effizienten Kontinuumsbeschreibung (Uneyama-Doi-Modell, UDM) und Methoden des maschinellen Lernens. So lassen sich anwendungsrelevante große Zeit- und Längenskalen erfassen, ohne den für das Materialdesign entscheidenden Bezug zu molekularen Eigenschaften zu verlieren.

Mit SOMA konnten wir bereits zentrale Prozessschritte wie Lösemittelverdampfung, Nichtlösemittel-induzierte Phasenseparation und glasartiges Erstarren detailliert untersuchen und mit Experimenten vergleichen [1–3]. Desweitern wurde eine hybride Kopplung zwischen der detaillieren Teilchensimulation SOMA und dem recheneffizienten Kontinuumsmodell UDM realisiert, bei der maschinelles Lernen gezielt jene zeitabhängigen Raumbereich (propagierende Strukturbildungsfront) identifiziert, in denen eine hochauflösende Teilchensimulation notwendig bleibt. Die unterschiedlichen Anforderungen beider Modellierungsebenen machen eine modulare Supercomputerarchitektur (MSA) – hier das JUWELS-Cluster-Booster-System am Jülich Supercomputing Centre – besonders geeignet. Ein Koordinator orchestriert die Kopplung, verwaltet Ressourcen dynamisch und ermöglicht den Datenaustausch zwischen SOMA und UDM via MPI im HDF5-Format. Das resultierende Multiskalen-Framework reduziert den Rechenaufwand um etwa eine Größenordnung und erlaubt eine systematische Optimierung von Membranmaterialien [3], beispielsweise die gezielte Einstellung der Porengröße durch Kopolymer-Mischungen [5]. Über diese konkrete Anwendung hinaus eröffnet die Koordinator-Software eine effiziente Nutzung von MSA-Systemen und erleichtert den Zugang durch minimalen Portierungsaufwand für die Kopplung von Anwendungen.

[1] Evaporation-induced self-assembly of diblock copolymer films in an electric field: a simulation study, O. Dreyer,L. Schneider, M. Radjabian, V. Abetz, and M. Müller, Macromolecules 56, 6880 (2023)
[2] Simulation of membrane fabrication via solvent evaporation and nonsolvent induced phase separation, N. Blagojevic and M. Müller, ACS Appl. Mater. Interfaces 15, 57913 (2023) Err 16, 12115 (2024)
[3] Towards predicting the formation of integral-asymmetric, isoporous diblock copolymer membranes, N. Blagojevic, S. Das, J. Xie, O. Dreyer, M. Radjabian, M. Held, V. Abetz, and M. Müller, Adv. Mater. 36, 2404560 (2024)
[4] On efficient simulation of self-assembling diblock copolymers using a peridynamic-enhanced Fourier spectral method, F. Mossaiby, G. Häfner, A. Hermann, C. Cyron, M. Müller, S. Silling, and A. Shojaei, Comput. Methods Appl. Mech. Eng. 439, 117878 (2025)
[5] Process-dependent control of structure size in binary diblock-copolymer blends, J. Xie and M. Müller, preprint
10:00
30' Kaffeepause
Aula am Waldweg
10:30
45'
Synergie bei CFD/matrixfreien Algorithmen
Dr. Benedict Geihe
Numerische Simulation, Department Mathematik/Informatik, Universität zu Köln
Prof. Dr. Martin Kronbichler
Angewandte Numerik, Fakultät für Mathematik, Ruhr-Universität Bochum
Prof. Dr. Stefan Turek
Angewandte Mathematik und Numerik, Fakultät für Mathematik, Technische Universität Dortmund
Hörsaal, Aula am Waldweg
11:15
45'
Ansätze zur Nutzung von heterogener Hardware und smarten Netzwerken
PD. Dr. Josef Weidendorfer
Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ)
Prof. Dr. Michael Bader
Lehrstuhl für Wissenschaftliches Rechnen, Technische Universität München
Dr. Gregor Olenik
Lehrstuhl für Computational Mathematics, Technische Universität München
Hörsaal, Aula am Waldweg
Beschreibung
ScalNEXT: Das Projekt ScalNEXT erforscht neue Ansätze zur Skalierung von Hochleistungsrechnersystemen durch den Einsatz intelligenter, programmierbarer Netzwerke. Ziel ist es, Rechen- und Steuerungsaufgaben aus den Knoten in das Netzwerk zu verlagern, um die Effizienz und Skalierbarkeit moderner HPC-Anwendungen deutlich zu steigern. In diesem Vortrag werde ich über die Ergebnisse berichten, die in den Bereichen Modellierung & Simulation, Datenanalyse und KI-Anwendungen erreicht wurden, und das Potential dieser Technologie für zukünftige Exascale-Systeme diskutieren.

targetDART: Dynamic Migration of OpenMP GPU Kernels in Heterogeneous Clusters
targetDART is a novel runtime to let OpenMP target tasks be dynamically distributed between all nodes and devices of a heterogeneous GPU cluster. Programmers can modify the device clauses in an MPI+OpenMP-target application to specify migrateable kernels. Load is redistributed dynamically to mitigate temporary imbalances.
We evaluate the performance of task migration on a generic use case and for the hyperbolic PDE engine ExaHyPE.

Enhancing OpenFOAM with GPUs and New Algorithms - An Overview of the EXASIM Project
The EXASIM project had the ambitious goal to improve the performance of OpenFOAM by leveraging GPU hardware and utilizing modern algorithms. This presentation provides an overview of the anticipated results of the project and examines the specific software and simulation tools developed within the EXASIM project, which are accessible as open-source software via our public repository at github.com/exasim-project . As a case study, insights obtained from the 1st OpenFOAM HPC Challenge will be discussed.
12:00
60' Mittagspause
Aula am Waldweg
13:00
45'
Speichersysteme für das Exascale
Prof. Dr. Erwin Laure
Max Planck Computing and Data Facility
Dr. Patrick Höhn
Georg-August-Universität Göttingen
Dr. Arun Kumar Dwivedi
Universität Hohenheim, Institut für Physik und Meteorologie
Hörsaal, Aula am Waldweg
Beschreibung
DAREXA:Die in großen Simulationen benötigten Datenmengen tragen immer mehr zu Performanceproblemen bei. Große Datenmengen sind nicht nur bei I/O problematisch, sondern auch während der Simulationsläufe, z.B. in MPI-Kommunikationsroutinen. Darüber hinaus bevorzugt die auf KI fokussierte Hardwareentwicklung kleinere Datenformate mit einfacher oder auch halber Präzision, im Gegensatz zur derzeit im wissenschaftlichen Rechnen üblichen doppelten Präzision. Im DaREXA-F Projekt werden, basierend auf Simulationsprogrammen für die Fusionsforschung (gyrokinetische Plasmaturbulenz mit GENE) Datenkomprimierungstechniken innerhalb der Simulationsläufe sowie der Einsatz von Datenformaten mit geringerer Präzision untersucht. Wir fokussieren dabei auf die Auswirkung auf die Genauigkeit der statistischen Eigenschaften der Turbulenz, auf die Stabilität der Algorithmen und die Performancegewinne auf verschiedenen Hardwarearchitekturen (CPU, GPU, FPGA, SmartNICs).

TOPIO:Das vom Bundesministerium für Bildung und Forschung geförderte Projekt TopIO hat das Ziel, die Lese‑ und Schreibgeschwindigkeiten des Open‑Source‑Bodensystemmodells MPAS (Model for Prediction Across Scales) zu optimieren. Zu diesem Zweck wird ein Auto‑Tuning‑Ansatz verfolgt, um die Komplexität mehrerer I/O‑Schichten für die Anwender zu verbergen und die I/O‑Leistung nachhaltig zu steigern. In Zusammenarbeit mit dem Institut für Physik und Meteorologie der Universität Hohenheim werden Kompressionsansätze entwickelt, die eine signifikante Reduktion des Datenvolumens ermöglichen, ohne dabei wesentliche Informationen zu verlieren.

Unter der Leitung des HLRS wurde bereits eine Analyseumgebung eingerichtet, die etablierte Profiler‑Tools wie Darshan und Vampir nutzt. Auf Basis dieser Werkzeuge wurden Kennzahlen zur I/O‑Performance der Anwendung UHOH ausgewertet, um sowohl manuelle als auch automatisierte Optimierungsstudien – unterstützt durch das Tool IOFlex – auf dem HPC‑System Hawk und Hunter durchzuführen.

Des Weiteren wurde eine API sowie ein HDF5‑Plugin für die am HLRS entwickelte Kompressionsbibliothek spezifiziert. Damit lässt sich eine detaillierte Fehler‑ und Artefaktanalyse bei der Anwendung sowohl verlustfreier als auch verlustbehafteter Kompressionsverfahren durchführen.

MCSE:Das MCSE Projekt hat sich zum Ziel gesetzt, mittels einer neuen zu entwickelnden API das Potential zur Optimierung von Speichersystemen durch das Schließen der Semantiklücke zwischen den oberen und unteren Layers im Storage Stack zu schließen. Die entwickelte IOVERBS API erlaubt dies und unterstützt dabei zwei Backends, BeeGFS und IML. Zur Unterstützung von bereits existierenden Anwendungen wurde auch ein FUSE-Client und eine POSIX-Preloading-Bibliothek entwickelt. Auf Basis von IML wurde darüber hinaus mit MCS2 die Möglichkeit geschaffen Campaign Storage zur optimierten Nutzung von HPC-Speichersystemen zu implementieren. Das Projekt wird im Oktober einen Workshop zur Präsentation der Projektergebnisse abhalten.
13:45
30'
Weiterentwicklungen des ICON-Modells
Prof. Dr. Daniel Ruprecht
Lehrstuhl Computational Mathematics, Technische Universität Hamburg
Dr. Panagiotis Adamidis
Deutsches Klimarechenzentrum (DKRZ)
Hörsaal, Aula am Waldweg
Beschreibung
Die ICON-Software ist der zentrale Baustein der nationalen Initiative für Erdsystemmodellierung und wird sowohl vom Deutschen Wetterdienst (DWD) für die operationelle Wettervorhersage als auch zur Erstellung von Klimaprognosen sowie generell in der Forschung verwendet. Das vom DWD und dem Max Planck Institut für Meteorologie gemeinsam entwickelte ICON-Modell basiert auf physikalischen Grundlagen für die Beschreibung der Atmosphäre und der Ozeane und spannt dafür ein Netz aus Dreiecksgittern um die Erde. So divers wie die besonders gesellschaftsrelevanten Anwendungsfelder von ICON sind auch die verschiedenen HPC-Architekturen, auf denen ICON Anwendung findet. Daraus entstehen für die erfolgreiche Zusammenarbeit zwischen den Computerwissenschaften und der geowissenschaftlichen Forschung besondere Herausforderungen. Die SCALEXA Projekte IFCES2 und ExaOcean tragen zur Bewältigung dieser bei und zielen darauf ab, mit neuartigen Ansätzen die Performanz des ICON Modells auf zukünftigen Exascale-Rechnern sicherzustellen. IFCES2 implementiert und optimiert zu diesem Zwecke neuartige Methoden der parallelen Ausführung, Kommunikation und der dynamischen Lastbalancierung für ICON. ExaOcean kombiniert numerische Algorithmen mit Techniken des Maschinellen Lernens in einem “super-resolution” Ansatz, um effektiv hohe Auflösung auch mit größeren Gitterweiten zu erzielen und somit den Durchsatz des Modells zu verbessern. Die entwickelten Techniken sind eine notwendige Voraussetzung für die effiziente Nutzung zukünftiger Exascale-Rechner, ermöglichen eine erhebliche Erhöhung des Detailgrades von Erdsystemmodellen und tragen damit zur Verringerung der Unsicherheiten zukünftiger Klimaprojektionen bei.
14:15
30' Kaffeepause
Aula am Waldweg
GreenHPC
Moderation: Dr. Annalena Salditt (VDI/VDE-IT)
14:45
15'
Netzwerkgekoppelte Beschleuniger für energieeffizientes heterogenes Rechnen
Dr. Steffen Christgau
Zuse Institute Berlin
Hörsaal, Aula am Waldweg
Beschreibung
Im NAAICE-Projekt wurden programmierbare Beschleunigermodule (FPGAs) über das Netzwerk nutzbar gemacht. Diese neuartigen Network-Attached Accelerators (NAAs) versprechen gegenüber direktgekoppelten Beschleunigern mehr Flexibilität, eine bessere Auslastung und gleichzeitig einen geringeren Energieverbrauch. Der Vortrag geht auf Erfahrungen und Probleme bei der High-Level-Synthese zur Programmierung der NAAS und auf die Einbindung der NAAs in das Ressourcen-Management-Systems eines HPC Data Centers ein.
15:00
15'
SeqAn@FPGA : Energieeffiziente Sequenzanalysen mit Datenfluss-Architekturen
Dr. Thomas Steinke
Zuse Institute Berlin
Hörsaal, Aula am Waldweg
Beschreibung
Die Analyse hochvolumiger Next Generation Sequencing (NGS) Daten in der bioinformatischen Forschung und im klinischen Bereich benötigt heute HPC-Ressourcen. Im Projekt ”SeqAn on FPGA: Energieoptimierte Genomsequenzierungsbibliothek für energieeffiziente programmierbare Mikroelektronik” werden zentraler Datenstrukturen für die bioinformatische Sequenzanalyse wie Hierarchical Interleaved Bloom Filter (HIBF) und FM-Index auf FPGAs implementiert. Die Implementierungen werden in die weitverbreitete SeqAn C++ Bibliothek für biologische Datenanalyse integriert.
Im Vortrag stellen wir den Stand der Arbeiten mit einem Ausblick vor.
15:15
15'
STXDemo - Energieeffiziente HPC Systeme ‘Made in Germany’
Dr. Jens Krüger
Fraunhofer ITWM
Hörsaal, Aula am Waldweg
Beschreibung
Sei es für Simulationen in den Ingenieurswissenschaften, in Chemie, Medizin oder im Bereich Cloud-Systeme und KI: Supercomputingsysteme gewinnen kontinuierlich an Bedeutung. Um die Wirklichkeit möglichst genau digital abzubilden werden zunehmend leistungsfähigere Supercomputer benötigt. Bei immer kleiner werdenden Technologien in der Chipentwicklung erhöht sich die Leistungsaufnahme dieser Systeme; die schnellsten liegen bereits bei über 25 MW Leistungsaufnahme. Beschleunigerhardware bietet Leistungs- und Effizienzvorteile für parallele Anwendungen. Mit der Entwicklung des Stencil- und Tensorbeschleuniger (STX) Systems arbeitet das Fraunhofer ITWM zusammen mit den Instituten IIS und IZM an einem Architekturansatz, der hohe Leistung mit sehr guter Energieeffizienz und realistischen Kosten für die Entwicklung verbindet. Das System wird mit einem Faktor von 3 bis 4 effizienter als GPU basierte Systeme sein und soll demnächst in Pilotsystemen zur Verfügung stehen. Im Projekt STXDemo kooperieren die Fraunhofer Institute mit der Zollner AG und den Rechenzentren der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) sowie dem FZJ, um eine auf PCI Gen5 basierende Beschleunigerkarte und das Systemkonzept umzusetzen. Ihr Ziel: Erste Pilotsysteme mit Schlüsselanwendungen aus der Quantenchromodynamik sowie der Strömungsdynamik in 2025. Weitere Informationen: https://www.itwm.fraunhofer.de/stx .
15:30
15'
WindHPC: Energy Efficiency and Renewable Energy for Distributed High-Performance Computing
Dr. Martin Rose
Höchstleistungsrechenzentrum Stuttgart (HLRS)
Hörsaal, Aula am Waldweg
Beschreibung
Simulationen komplexer Probleme sind extrem rechen- und energieintensiv. Das Projekt WindHPC verfolgt das Ziel, simulationsbasierte Problemlösung nachhaltiger zu gestalten. Im Fokus stehen dabei: Steigerung der Energieeffizienz von HPC-Simulationen, Integration erneuerbarer Energien, Wiederverwendung von Simulationsdaten sowie Kosten-Nutzen-Analysen hochparalleler Rechnungen.

Anhand von Anwendungsbeispielen aus dem Prozessengineering werden in WindHPC hierzu Techniken untersucht, die den Energiebedarf von Simulationen deutlich reduzieren können. Dazu gehören softwareseitigen Optimierungen, die Bewertung der Nachhaltigkeit unterschiedlicher Hardwaresysteme unter Berücksichtigung ihres ökologischen Fußabdrucks unter Einbeziehung deren Lebenszyklus, die Nutzung ökologischer Rechenressourcen in Windfarmen durch workflowbasierte Simulationsabläufe sowie die Verbesserung von Dateninfrastrukturen und digitalen Zwillingen für den vereinfachten Zugriff auf Simulationsergebnisse zum Zwecke deren Wiederverwendung.
15:45
30' Kaffeepause
Hörsaal, Aula am Waldweg
16:15
15'
ESN4NW: HPC-Rechenzentrum im Windrad … das RZ auf dem Weg zum Energiezentrum
Holger Nickel M.A.
AixpertSoft GmbH
Hörsaal, Aula am Waldweg
Beschreibung
Durch intelligente Steuerung und Betrieb von HPC-Anlagen im Windrad ist ein möglicher Lösungsweg für die Zukunft aufgezeigt ... der Aufbau eines gekoppelten Energie – und Rechenzentrums mittels direkter Sektorenkopplung und Clusterung am Edge.
16:30
15'
EE-HPC: Quelloffene Lösungsansätze für Monitoring und Systemeinstellungen für energieoptimierte Rechenzentren
Dr. Jan Eitzinger
Erlangen National High Performance Computing Center (NHR@FAU), Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU)
Hörsaal, Aula am Waldweg
Beschreibung
Ziel des Vorhabens ist die automatisierte Optimierung der Energieeffizienz von HPC-Systemen. Ein innovatives Monitoringsystem soll zur Reduzierung des Energieverbrauchs bei gleichzeitiger Steigerung der Rechenleistung beitragen. Dieses Ziel soll durch neue softwarebasierte Regelungsmechanismen von Systemparametern erreicht werden. Der Kurzvortrag wird einen kurzen Überblick des aktuellen Projektstatus, Herausforderungen und Erfolge präsentieren.
16:45
15'
Leveraging heterogeneity to optimize energy efficiency of climate simulations
Julius Plehn
Deutsches Klimarechenzentrum (DKRZ)
Hörsaal, Aula am Waldweg
Beschreibung
Climate simulations are highly demanding, both computationally and energetically, creating challenges for sustainable high-performance computing. In the EECliPs project, we aim to make climate simulations with ICON more energy-efficient by running coupled experiments on suitable heterogeneous architectures. Our custom-built cluster integrates state-of-the-art CPUs and accelerators, enabling us to evaluate representative experiments across diverse hardware configurations. ICON supports the simulation of atmosphere, ocean, and ocean biogeochemistry on independent compute nodes, offering a flexible testbed for exploring heterogeneous setups. Using various energy-measurement techniques, we assess the efficiency of each architecture and design combined experiments to advance sustainable climate modelling.
17:00
15'
Energieoptimiertes High-Performance Computing für Finite-Elemente-Simulationen in der Produktentwicklung (ENSIMA)
Dr. Ahmad Tarraf
Laboratory for Parallel Programming, Technische Universität Darmstadt
Hörsaal, Aula am Waldweg
Beschreibung
Bei der Blechumformung, wie sie beispielsweise in der Automobilindustrie zum Einsatz kommt, müssen zahlreiche Designparameter festgelegt werden. Klassische Ansätze, die auf numerischen Simulationen (z. B. Finite Elemente) basieren, haben jedoch einen hohen Bedarf an Rechenressourcen. Durch die Kombination von KI, Bayes'scher Optimierung sowie Verfahren des heterogenen und approximativen Rechnens kann die Anzahl der Simulationen und die Simulationszeit deutlich reduziert werden. Unser Ansatz im ENSIMA-Projekt integriert Materialeigenschaften, Prozessparameter und geometrische Merkmale. Dadurch wird die Parameteroptimierung erheblich beschleunigt, die Ergebnisqualität verbessert und der Rechenaufwand deutlich gesenkt. Dies reduziert wiederum Emissionen und Energieverbrauch in den Herstellungsprozessen.
17:15
15'
Digitaler Zwilling für energieeffiziente Rechenzentren (IT-Zauber)
apl. Prof. Dr. Rita Streblow
Lehrstuhl für Gebäude- und Raumklimatechnik, RWTH Aachen University
Hörsaal, Aula am Waldweg
Beschreibung
Bisher liegt der Fokus bei der Optimierung des Betriebs von Rechenzentren auf der Energieeffizienz einzelner Komponenten, wobei Potenziale wie Abwärmenutzung oder Betriebsflexibilität ungenutzt bleiben. Die ganzheitliche Betrachtung aller Zusammenhänge ist durch klassische Planungskonzepte nicht abbildbar. Der in IT-Zauber entwickelte Digitale Zwilling bildet daher sowohl Energieversorgung als auch IT-Komponenten ab. Dies ermöglicht die gekoppelte Optimierung des Betriebs der Versorgungsinfrastruktur und der Joballokation. Zudem ermöglicht der digitale Zwilling die gesamtheitliche, energieeffiziente Planung von IT- und Versorgungsinfrastruktur. Bereits durch die Entwicklung des digitalen Zwillings sind bisher unbemerkte Betriebsbesonderheiten in den zwei Demonstrations HPC Rechenzentren aufgefallen.
Das im Projekt entwickelte Framework bestehend aus IoT-Plattform, Datenmodell, Energieinfrastrukturmodell, HPC-Modell und Dashboard wird Open-Source gestellt werden und kann weiteren Rechenzentren als Entwicklungsbasis dienen.
Abendveranstaltung
19:00
270'
Networking & Abendessen @ GWDG (Social Event)
Networking und ein gutes Abendessen in der inspirierenden Umgebung des Göttinger Rechenzentrums.

Mögliche Busverbindungen: https://fahrplaner.vbn.de
KI & HPC
09:00
60'
Keynote: Towards in silico Neuroscience
Prof. Dr. Fabian Sinz
Professur für Machine Learning, Universität Göttingen
Hörsaal, Aula am Waldweg
10:00
30' Kaffeepause
Hörsaal, Aula am Waldweg
10:30
60'
Aktivitäten der nationalen KI-Servicezentren
Jill Barvencik
AI Engineer
KI-Servicezentrum Berlin-Brandenburg
Dr. Christian Terboven
IT Center, RWTH Aachen University • WestAI
Prof. Dr. Julian Kunkel
Professur für Hochleistungsrechnen, Georg-August-Universität Göttingen • KISSKI
Hörsaal, Aula am Waldweg
Beschreibung
Die vier nationalen KI-Servicezentren HPI, WestAI, KISSKI und Hessian AI bieten deutschlandweit Unterstützung bei der Integration von KI-Methoden in Forschung und Anwendung. In diesem Überblicksvortrag werden die unterschiedlichen Schwerpunkte und Aktivitäten der Zentren vorgestellt: Das HPI konzentriert sich auf die Entwicklung und den Einsatz vertrauenswürdiger KI. WestAI unterstützt Forschende und Unternehmen bei der Implementierung von KI-Lösungen. KISSKI fördert die Zusammenarbeit von KI und Wissenschaft mit Fokus auf Nachhaltigkeit. Hessian AI verbindet KI-Forschung mit gesellschaftlichen Herausforderungen. Gemeinsam bilden die Zentren ein deutschlandweites Netzwerk zur Förderung von KI-Kompetenzen.
11:30
15'
Verantwortungsvolle Neuro-Symbolische KI und Anwendungen am Forschungszentrum L3S
Prof. Dr. Sören Auer
Forschungszentrum L3S
Hörsaal, Aula am Waldweg
11:45
30'
Produktive KI Workflows in der UMG - HPC ist essentiell
Prof. Dr. Christian Riedel
Universitätsmedizin Göttingen
Hörsaal, Aula am Waldweg
12:15
30'
Paneldiskussion: "Goldgräberstimmung in der KI – Vergessen wir unsere Stärken im HPC?!"
Dr. Christian Terboven
IT Center, RWTH Aachen University
Prof. Dr. Julian Kunkel
GWDG
Prof. Dr. Sören Auer
Forschungszentrum L3S
Dr. Christopher Kadow
Deutsches Klimarechenzentrum (DKRZ)
Hörsaal, Aula am Waldweg
12:45
15'
Schlusswort
Simon Hechinger
Bundesministerium für Forschung, Technologie und Raumfahrt
Prof. Dr. Wolfgang E. Nagel
Gauß-Allianz e. V.
Hörsaal, Aula am Waldweg
13:00
60' Mittagspause
Aula am Waldweg
 
 
Anfahrt und Veranstaltungsort
Universität Göttingen
Aula am Waldweg

Waldweg 26
37075 Göttingen

Weitere Informationen zum Veranstaltungsort erhalten Sie in der Rauminformation der Universität Göttingen .