November 2021

Gauß-Allianz newsletter - Issue 94

Gauß-Allianz-Zentren @ SC‘21

Die diesjährige Supercomputing Conference (SC) findet vom 14. bis 19. November in St. Louis / Missouri, USA statt und wird die meisten Angebote parallel auch digital für die Teilnahme aus der Ferne bereitstellen, wobei auch die Vor-Ort-Teilnahme zum Remote-Zugriff in der jeweiligen Anmeldekategorie berechtigt. Als größte und wichtigste internationale Plattform für HPC sowie Network- und Speichertechnologie hält die SC ein umfassendes Programm zu den neuesten Technologien, Trends und Innovationen bereit. Die Konferenz und die Ausstellung bringen Expertise aus Forschung und Wissenschaft, Ingenieurswesen, Entwicklung und Adminis-tration zusammen – in einem umfangreichen Programm mit technischen Präsentationen, Vorträgen, Tutorials, Forschungspostern und Themensitzungen. Auch wenn keines der Gauß-Allianz-Mitglieder vor Ort teilnehmen wird, nutzen sie das Format wieder, um sich zu informieren und ihre aktuellen Themen und Ergebnisse in virtuellen Standpräsentationen sowie wissenschaftlichen Veranstaltungen vorzustellen. Weitere Informationen: gauss-allianz.de/de/article/sc21

Physik-Nobelpreis für Klaus Hasselmann

Professor Klaus Hasselmann erhält gemeinsam mit den Professoren Syukuro Manabe (USA) und Giorgio Parisi (Italien) den Nobelpreis für Physik 2021. Klaus Hasselmann, Gründungsdirektor des Max-Planck-Instituts für Meteorologie in Hamburg, war 1987 maßgeblich am Start des DKRZ beteiligt und leitete es bis zu seiner Emeritierung 1999. Zusätzlich zu seinen eigenen Forschungen zur physikalischen Modellierung des Erdklimas, der Quantifizierung der natürlichen Variabilität und der zuverlässigen Vorhersage der globalen Erwärmung baute er gemeinsam mit dem Physiker Wolfgang Sell das DKRZ als nationale Forschungsinfrastruktur auf, von der die deutsche Klimaforschung bis heute profitiert. Die von Hasselmann vorangetriebene Entwicklung gekoppelter Klimamodelle in Kombination mit einem leistungsfähigen, auf Klimamodellierung zugeschnittenen Supercomputer am DKRZ bildeten die Grundlage für zahlreiche internationale wissenschaftliche Erfolge und den guten Ruf der Hamburger Klimaforschung. Weitere Informationen: dkrz.de/de/physiknobelpreis2021 .

60 Jahre Max-Planck-Rechenzentrum in Garching

Im August 1961 beschaffte das Institut für Plasmaphysik (IPP) in Garching einen der leistungsfähigsten Rechner seiner Zeit – ein IBM-System des Typs 7090 mit 100 kFlop/s. Das IPP war 1960 mit der Max-Planck-Gesellschaft (MPG) und Werner Heisenberg als Gesellschafter als GmbH gegründet worden. Zu den ersten Nutzenden gehörten neben dem IPP die Max-Planck-Institute (MPI) für Physik und Astrophysik sowie Biochemie, wie auch die beiden Münchner Universitäten. Das Deutsche Rechenzentrum in Darmstadt beschaffte das gleiche System und nutzte den Garchinger Rechner zusätzlich bei Kapazitätsengpässen. 1969 wurde in Garching ein IBM-System des Typs 360/91 installiert, das ebenfalls zur Weltspitze zählte; 1979 folgte der weltweit erste Vektorrechner für reine Grundlagenforschung. Inzwischen hat sich das Rechenzentrum Garching von einer lokalen zu einer zentralen Einrichtung der MPG entwickelt. Es erhielt 2015 den neuen Namen Max Planck Computing and Data Facility (MPCDF), der zum Ausdruck bringt, dass die Einrichtung auch zu den weltweit größten akademischen Datenzentren zählt. Mehr als 50 aller MPIs nutzen seine Dienste zum Rechnen, zur Datenspeicherung sowie insbesondere für anspruchsvolle HPC- und AI-Anwendungsentwicklung sowie Datenmanagementprojekte. Darüber hinaus ist die MPCDF an vielfältigen nationalen und internationalen Projekten beteiligt. Am 14. Oktober feierte das Zentrum sein 60-jähriges Bestehen mit einem wissenschaftlichen Symposium in Garching. Neben der Würdigung seiner Rolle durch den Vizepräsidenten der MPG, Professor Blaum, begeisterten namhafte Wissenschaftler/innen aus Plasma- und Astrophysik, Material- und Lebenswissenschaften, der Quantenphysik sowie der Informatik das Auditorium mit Vorträgen zum State-of-the-Art in der rechnergestützten Grundlagenforschung. Weitere Informationen: mpcdf.mpg.de/anniversary-mpcdf.html

DFG-Projekt FMhub gestartet

Moderne Supercomputer eilen von einem Rechnerleistungsrekord zum nächsten. Diese sind derzeit nur durch eine stetig steigende Komplexität und Parallelität der Hardware zu erreichen. Daran muss Simulationssoftware immer wieder angepasst und erweitert werden. Um redundante Arbeiten zu vermeiden und Nachhaltigkeit zu erzielen, sind modulare Lösungen in der HPC-Softwareentwicklung ein wichtiger Ansatz. Mit unabhängigen und entkoppelten Software-Komponenten wird eine einfachere Wiederverwendbarkeit, Wartbarkeit und Portabilität erst möglich. Das neue, von der DFG geförderte Projekt FMhub zielt darauf ab, der wissenschaftlichen Gemeinschaft eine quelloffene, schnelle Multipolmethode (FMM) in Form einer flexiblen C++-Bibliothek namens FMSolvr zur Berechnung von Coulomb-Wechselwirkungen zur Verfügung zu stellen. Der Code wird zusammen mit Werkzeugen zu Versionskontrolle, Fehlermonitoring, Continuous Integration und Deployment sowie einer umfassenden Dokumentation zur Verfügung gestellt. Das Projekt startete im September und hat eine Laufzeit von drei Jahren. Projektpartner sind ein Team am Jülich Supercomputing Centre sowie Prof. Werner von der Technischen Universität Chemnitz.

Virtuelles Labor für MOSAiC-Daten

Das Projekt „M-VRE: The MOSAiC – Virtual Research Environment“ hat das Ziel, Forschenden die Nutzung und Analyse der Daten der bisher größten Arktisforschungsexpedition MOSAiC (09/2019–10/2020) zu erleichtern. Ein Team des Alfred-Wegener-Instituts für Polar- und Meeresforschung in Bremerhaven (AWI) entwickelt dafür zusammen mit dem DKRZ und dem Institut für Datenwissenschaften am Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Jena eine Reihe von Werkzeugen, die den Zugriff auf diese Arktisdaten sowie ihre Bearbeitung online ermöglichen werden. Das DKRZ wird dabei eine Online-Plattform entwickeln und betreiben, auf der diese Analyse- und Visualisierungswerkzeuge auch bei sehr großen Zugriffszahlen reibungslos genutzt werden können. Das Projekt wird durch das BMBF über drei Jahre mit rund 2 Mio. Euro gefördert. Weitere Informationen: dkrz.de/de/vre

Digitalisierung des Werkstoffverhaltens von Blech

Die Fertigung von Tiefziehwerkzeugen, die Blech in eine PKW-Seitenwand umformen, setzt ingenieurwissenschaftliches Verständnis voraus, wie sich das Material unter physikalischen Belastungen während des Herstellungsprozesses verhält. Die Anwendung physischer Modelle zur Konstruktion von Umformwerkzeugen und die experimentelle Feinabstimmung der Parameter von Pressenlinien sind sehr kosten- und zeitaufwändig, sodass dafür HPC-Simulationen genutzt werden. Forschende des Instituts für Umformtechnik der Universität Stuttgart und des CATALYST-Projekts am HLRS erforschen Möglichkeiten, um die Materialdaten für die Umformsimulation zugänglicher und akkurater zu machen. Unter Berücksichtigung des realistischen Materialverhaltens wird HPC eingesetzt, um bis zu 2 Mrd. Simulationen des Werkstoffverhaltens zu erstellen. Auf Basis dieser Daten können die Forschenden durch Deep-Learning-Methoden ein neuronales Netz darauf trainieren, das Verhalten diverser Metallarten zu evaluieren und zu definieren. Das daraus resultierende vereinfachte Modell könnte als Werkzeug in der Blechproduktion und -verarbeitung angewandt werden. Weitere Informationen: hlrs.de/de/whats-new/news/detail-view/2021-10-20/

Interaktive HPC-Nutzung am DESY

Das DESY stellt seinen Nutzenden seit einiger Zeit mit dem interaktiven Dienst Jupyterhub ein Feature für den direkten, einfachen Zugang zu seinen Systemen über den Webbrowser bereit. Der Dienst wird auf mehreren Plattformen angeboten – sowohl auf den interaktiven Batch-Systemen BIRD und NAF mit dem HTCondor-Scheduler als auch auf dem HPC-System Maxwell mit dem SLURM-Scheduler und als Kubernetes-basierte Integration. Die drei Systeme erlauben Nutzenden den Zugriff auf die jeweils verfügbaren wissenschaftichen Daten und somit einen flexibleren Umgang mit Analyseprozessen, als es auf diesen Systemen bisher möglich war. Die für die unterschiedlichen Umgebungen nötigen Anpassungen der Jupyterhub-Installationen sind jetzt in einem Artikel in der Fachzeitschrift Computing and Software for Big Science erschienen und als Publikation frei verfügbar: doi.org/10.1007/s41781-021-00058-y

aiXcelerate – Tuning-Workshop an der RWTH Aachen

Die aiXcelerate an der RWTH Aachen University ist ein jährlich stattfindender Tuning-Workshop für HPC-Nutzende. Neben öffentlich zugänglichen Vorträgen werden mit einem ausgewählten Personenkreis in praktischen Übungen die erlernten Konzepte auf eigene Codes angewendet. Die diesjährige Veranstaltung vom 6. bis 9. Dezember legt den Fokus auf Performance-Tuning für I/O-intensive-Workloads und Machine-Learning-Anwendungen. Der I/O-Teil untersucht die Auswirkungen von nicht optimierter I/O auf die Gesamtleistung der Anwendung und umfasst I/O-Strategien, Best Practices, Analysewerkzeuge sowie die Hardware-Optionen der RWTH, die die I/O-Leistung verbessern können. Der Machine-Learning-Teil des Workshops trägt der steigenden Nachfrage nach GPU-geeigneten Anwendungen Rechnung. Der Inhalt konzentriert sich insbesondere darauf, zu erkennen, ob die Ressourcen effizient genutzt werden und in welchen Situationen es ausreichen könnte, Arbeitslasten auf der CPU-Partition auszuführen, um die Gesamtumlaufzeit zu reduzieren. Anmeldung unter: blog.rwth-aachen.de/itc-events/en/event/aixcelerate-2021/