Supercomputing Conference 2023: “I am HPC“
Vom 12. bis 17. November findet in Denver / USA die diesjährige Supercomputing Conference (SC23) statt. Als größte und wichtigste internationale Veranstaltung für HPC wird sie wieder ein umfangreiches und vielfältiges technisches und wissenschaftliches Programm sowie zahlreiche Austauschmöglichkeiten über Neuerungen und Best Practices bieten. Unter dem Slogan „I am HPC“ werden zentrale Themen wie Algorithmen, Anwendungen, Cloud Computing, Datenanalyse, Visualisierung und Speicherung, Architekturen und Netzwerke, Maschinelles Lernen sowie HPC, Programmier- und Softwaresystemen vorgestellt und diskutiert.
Die Gauß-Allianz-Mitglieder werden auf der SC23 wieder mit eigenen Ständen im Messebereich sowie mit Vorträgen, Workshops, Tutorials und Diskussionsrunden im wissenschaftlichen Programm vertreten sein. ● Alle drei GCS-Zentren JSC, LRZ und HLRS werden auf der Konferenz präsent sein. ● Das HLRS präsentiert aktuelle Forschungsprojekte sowie 3D-Visualisierungen an einem eigenen Stand und beteiligt sich mit der Birds-of-a-Feather-Session (BoF) European HPC Ecosystem – Updates and Gap Analysis. ● Das JSC stellt an seinem Stand den geplanten europäischen Exascale-Rechner JUPITER, die Quantencomputing-Infrastruktur JUNIQ, sowie hauseigene HPC-Werkzeuge, Projekte und Partnerschaften vor. JSC-Mitarbeitende beteiligen sich mit Tutorials zur verteilten GPU-Programmierung für Exascale und zum hybriden parallelen Performance Engineering, einem Workshop zum Codesign von Supercomputern sowie mit Workshop-Beiträgen, Panel-Diskussionen und mehreren BoFs. ● Das LRZ präsentiert gemeinsam mit Vertreter:innen von LMU und TUM aus München, Munich Quantum Valley sowie NHR@FAU die Schwerpunkte Quantum Computing, AI und Data Analytics, Computerarchitekturen sowie Tools und Support. Es ist auch auf der Job Fair präsent. ● Auf dem LRZ-Stand stellt das NHR@FAU seine Performance-Werkzeuge und Beratung vor. Im wissenschaftlichen Konferenzprogramm bietet es Beiträge im PMBS-Workshop, ein Research Poster sowie ein Tutorial an. ● Auch das DKRZ ist mit einem Research Poster vertreten und stellt Deep-Learning-Ansätze für die Entwicklung digitaler Zwillinge von Klimamodellen vor. ● Forschende des KIT werden auf den beiden HPC-Workshops ScalAH‘23 und P3HPC ihre aktuellen Forschungsergebnisse vorstellen. ● Das PC2 beteiligt sich durch die Mitorganisation des H2RC-Workshops und einer thematisch verwandten BoF-Session. ● ZIH und ScaDS.AI zeigen am gemeinsamen Stand ihre Entwicklungen und Projekte in HPC, Datenanalyse und KI u. a. durch Demos verschiedener Software-Werkzeuge. Zudem finden am Stand Sofa-Talks, User Challenges sowie ein Hackathon statt. Auch im wissenschaftlichen Programm sind die beiden Zentren aktiv. ● Gemeinsam mit NHR4CES beteiligt sich das IT Center der RWTH Aachen mit Tutorials und Workshop-Vorträgen zu OpenMP, einem Sofa-Talk am ZIH-Stand sowie mit Research-Postern zu Green-HPC und I/O, welches ebenfalls mit einer BoF ergänzt wird. Weitere Informationen: gauss-allianz.de/de/article/sc23 .
Exascale-Supercomputer in den Startlöchern
Die europäische Supercomputing-Initiative EuroHPC JU und das deutsch-französische Konsortium ParTec-Eviden haben den Bau des ersten europäischen Exascale-Supercomputers JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research) vertraglich besiegelt. Der auf einer modularen Architektur basierende Supercomputer JUPITER wird vom JSC betrieben werden. Das System wird über ein hochskalierbares Booster-Modul sowie ein eng damit verbundenes, universell einsetzbares Cluster-Modul verfügen. Ausgestattet wird das Cluster-Modul mit dem neuen, in Europa entwickelten Rhea-Prozessor von SiPearl und das Booster-Modul mit der beschleunigten Computing-Plattform von NVIDIA. Die Firma Eviden wird die Komponenten in ihre Plattform BullSequana integrieren. Beide Module werden dynamisch als ein einheitlicher Supercomputer mit dem modularen ParaStation Modulo der Firma ParTec betrieben. Die EU, das BMBF und das Ministerium für Kultur und Wissenschaft des Landes NRW stellen ein Gesamtbudget von 500 Mio. Euro zur Verfügung. Nutzende erhalten frühzeitig Zugriff über das „JUPITER Research and Early Access Program” für ihre Vorbereitungen. Weitere Informationen: fz-juelich.de/de/aktuelles .
Ideen für den Verkehr der Zukunft
Am Lehrstuhl für Verkehrstechnik der Technischen Universität München (TUM) werden zukünftige Verkehrsszenarien simuliert. Mit Hilfe der Supercomputer des LRZ bereitet das Forschungsteam diese Zukunft vor: Sie simulieren beispielsweise den Einsatz von Robo-Shuttles in München, wie potenzielle Passagier:innen selbstfahrende Shuttles annehmen und nutzen könnten sowie wie sich Fußgänger:innen, Radler:innen und autonome Fahrzeuge auf der Straße begegnen. Ebenfalls spannend für die Theorie des Verkehrsablaufs ist die Frage, wie der Verkehr flüssiger und sicherer wird. Für solche Optimierungsprobleme benötigen die Forschenden nicht nur schnelle Algorithmen und Rechenverfahren, sondern auch die Leistung von Supercomputern. Während Forschungsdisziplinen Modelle und Simulationen gewöhnlich dafür entwickeln, Systeme oder Prozesse zu verstehen und Prognosen abzuschätzen, verfährt das Team am Lehrstuhl für Verkehrstechnik umgekehrt: Es modelliert Zukunftsszenarien, überprüft diese mit Hilfe von Experimenten im Straßenalltag und verbessert die Modelle und Simulationen schließlich mit den Realitätsdaten. Weitere Informationen: lrz.de/presse/ereignisse/2023-09-12-Verkehrssimulationen/ .
Hochaufgelöste dekadische Ozeansimulationen
Selbst auf modernen Hochleistungsrechnern gerechnete Ozeanmodelle sind im Hinblick auf ihre Gitterauflösungen zu grob, um in Simulationen kleinskalige Dynamiken wie sub-mesoskalige Wirbel über mehrere Dekaden aufzulösen. Simulationsläufe mit der dafür notwendigen Auflösung von lokal 600 m können nur Prognosen über wenige Monate liefern. Das Projekt „ExaOcean: Leistungsverbesserung des ICON-O Ozeanmodells auf heterogenen Exascale-Supercomputern mit Methoden des Maschinellen Lernens” zielt darauf ab, effektiv hochaufgelöste Simulationen des Ozeans über mehrere Dekaden mit vertretbaren Laufzeiten zu ermöglichen. Dafür wird das Projekt eine neuartige Kombination von „klassischen” Algorithmen der numerischen Mathematik und Maschinellem Lernen verfolgen. Statt die sub-mesoskaligen Wirbel auf dem Gitter aufzulösen, sollen deren kumulierte Einflüsse auf größere Skalen durch ein neuronales Netz dargestellt werden, das mit Daten aus hochaufgelösten Simulationen über kurze Zeiträume trainiert wird. Das Projekt wird durch das BMBF im Förderprogramm SCALEXA für 3 Jahre finanziert. Weitere Informationen: gauss-allianz.de/en/project/title/ExaOcean.
Erfolgreicher Abschluss des Human Brain Projects
Das Human Brain Project (HBP) wurde 2013 von der Europäischen Kommission als eines der ersten Flaggschiff-Projekte ausgewählt und zählt mit 155 kooperierenden Institutionen aus 19 Ländern und einem Gesamtbudget von 607 Mio. Euro zu einem der bisher größten Forschungsprojekte in Europa. Das Projekt hat seine wissenschaftlichen Resultate in über 3.000 Publikationen veröffentlicht sowie mehr als 160 frei verfügbare digitale Werkzeuge für die Neurowissenschaft entwickelt und zugänglich gemacht. Die im HBP aufgebaute, digitale Forschungsinfrastruktur EBRAINS – das Vermächtnis des im September beendeten Großprojekts – bietet u. a. einen dreidimensionalen Gehirnatlas in nie dagewesener Genauigkeit, Dienste zum Suchen und Teilen von Gehirndaten sowie für Modellierung und Simulationen. EBRAINS baut auf der Fenix-Infrastruktur auf, umgesetzt im ebenfalls beendeten Schwester-Projekt „Interactive Computing e-Infrastructure for the HBP“, die eng miteinander verbundene Supercomputer, Cloud und Speicher sowie föderierte Dienste anbietet. EBRAINS und Fenix sollen in Zukunft fortgeführt werden. Weitere Informationen: go.fzj.de/hbp-abschluss .
Neuer Weltrekord für OpenFOAM-Skalierbarkeit
Forschende des HLRS haben in Zusammenarbeit mit Softwareentwickler:innen der WIKKI GmbH im Projekt exaFOAM erfolgreich eine Methode getestet, die die Nutzbarkeit von OpenFOAM-Anwendungen deutlich verbessert. Das neue Konzept namens „kohärentes Dateiformat“ vereinfacht die Datenverwaltung für HPC-Dateisysteme während der Simulationen und eliminiert die zeitintensive Vor- und Nachbearbeitung von Daten. Mit dem HLRS-Supercomputer Hawk hat das exaFOAM-Team erfolgreich eine Simulation durchgeführt, bei der OpenFOAM hinsichtlich der I/O effizient auf 4.096 Knoten (524.288 CPU-Kerne) skaliert wurde. Diese Zahl ist mehr als viermal so hoch wie der bisherige Skalierungsrekord der Software. Während die Datenvorverarbeitung bei einer typischen Großsimulation bis zu einer Woche benötigt, könnten Forschende mit der neuen Methode ihre Ergebnisse in nur wenigen Stunden erhalten. Die Simulation mit OpenFOAM wird damit für Nutzende, deren Zugang zu Computing-Ressourcen eingeschränkter ist, deutlich erleichtert. Weitere Informationen: hlrs.de/de/news .