Oktober 2023

Gauß-Allianz Infobrief - Ausgabe 111

Hochleistungsrechner Lichtenberg II eingeweiht

Die TU Darmstadt hat am 11. Juli ihren neuen Hochleistungsrechner Lichtenberg II offiziell eingeweiht. Ausgestattet mit neuester Technologie setzt er Maßstäbe bei Leistung und Energieeffizienz und bietet damit beste Voraussetzungen für exzellente Forschung. Der mit einem Gesamtinvestitionsvolumen von 15 Mio. Euro ausgestattete Hochleistungsrechner ist das technische Herzstück eines nachhaltigen Gesamtkonzepts. Lichtenberg II ist Teil des NHR-Verbunds. Das Zentrum NHR4CES, das die TU Darmstadt zusammen mit dem NHR-Zentrum der RWTH Aachen vorantreibt, unterstützt die Simulation von technischen Produkten, die von zentraler Bedeutung für Entwicklungen in Wirtschaft und Gesellschaft sind. Weitere Informationen: nhr4ces.de/2023/07/13/sustainable .

GridKa-Onlinespeicher massiv erweitert

Im Frühjahr 2023 wurde die Erweiterung des Onlinespeichersystems für das Tier-1-Zentrum GridKa im Rechen- und Speicher-Netzwerk für die Experimente am Large Hadron Collider (LHC) „Worldwide LHC Computing Grid“ am KIT in Betrieb genommen. Die neu installierten 71 Petabyte stehen für Experimente der Hochenergie-, Teilchen- und Astroteilchenphysik zur Verfügung. Sie ersetzen 30 Petabyte Speicherhardware, die nach 6 Jahren außer Betrieb genommen wird. Insgesamt verfügt GridKa jetzt über 99 Petabyte Onlinespeicher. Die neue Installation besteht aus hochdichten Systemen des Typs CORVAULT der Firma Seagate, mit insgesamt 4664 Festplatten mit 18 Terabyte Kapazität auf 70 Servern und Infiniband-Switches, die in die vorhandenen Infiniband-Netzwerke eingebunden wurden. Als Speichersoftware kommt IBM Storage Scale zum Einsatz. Aufgrund der Chip- und Logistikkrise nach der Corona-Pandemie und dem Ukrainekrieg hatte sich die Inbetriebnahme um ein Jahr verzögert. Inzwischen sind die Daten für fast alle Experimente migriert und die Systeme im Produktivbetrieb. Weitere Informationen: scc.kit.edu/forschung/gridka.php .

Neue Abteilung Datenanalyse am DKRZ

Am DKRZ hat im September die neue Abteilung Datenanalyse ihre Arbeit aufgenommen. Unter der Leitung von Dr. Christopher Kadow befasst sie sich mit wesentlichen Themen rund um die Auswertung von Klimasimulationen. Dazu gehören sowohl technische Aspekte, wie effiziente Datenbewegungen und Workflows auf den vielseitigen Hardwarekomponenten des DKRZ, als auch Software-Aspekte, z. B. im Bereich des maschinellen Lernens. Die Abteilung wird dazu beitragen, neue Erkenntnisse aus komplexen Datensätzen zu gewinnen sowie Herausforderungen an der Schnittstelle zwischen Klimaforschung und Hochleistungsrechnen zu bewältigen. Mit der Neugründung der Abteilung verdeutlicht das DKRZ sein kontinuierliches Engagement, Klimaforschende mit innovativen Lösungsansätzen und Methoden zu unterstützen, sodass sie bestmöglich von den aktuellsten HPC-Entwicklungen profitieren können. Weitere Informationen: dkrz.de/de/kommunikation/aktuelles/neue-abteilung-datenanalyse .

Optimierung komplexer Strömungssimulationen

Im Rahmen der SCALEXA-Förderung des BMBF startete 2022 das über 3 Jahre geförderte Projekt „StrömungsRaum“. Im Vordergrund steht die Verbesserung der Performance und Skalierbarkeit der zugrundeliegenden FEATFLOW-Software, um komplexe Strömungssimulationen in der Software StroemungsRaum effizienter durchzuführen und ihre Anwendbarkeit auf massiv-parallelen HPC-Systemen – auch in der Industrie – zu ermöglichen. Im Projekt werden verschiedene Forschungsansätze verfolgt. Dazu zählen hardwarespezifische Performanceanalyse und -optimierung, hardwareorientierte numerische Methoden, Code-Portierung auf Beschleuniger (GPU), die Entwicklung hochskalierbarer, auf Gebietszerlegung basierender linearer und nichtlinearer Vorkonditionierer sowie die Entwicklung und Realisierung neuer simultaner Methoden für Strömungssimulationen. Neben der Fakultät für Mathematik an der TU Dortmund, die das Verbundprojekt koordiniert, gehören die Universität zu Köln, die TU Bergakademie Freiberg, das NHR@FAU Erlangen und das Forschungszentrum Jülich sowie die Firma IANUS Simulation GmbH zum Konsortium, die als erfahrener Industriepartner die StroemungsRaum-Software bereits seit Jahren als Simulation-as-a-Service anbietet. Weitere Informationen: gauss-allianz.de/de/project/title/StroemungsRaum .

Energieeffizienzoptimierung auf Basis von FPGAs

Im Rahmen des Projektes „Netzwerkgekoppelte Beschleuniger für energieeffizientes heterogenes High-Performance Computing (NAAICE)“ soll die Energieeffizienz von HPC-Rechenzentren durch den Einsatz netzwerkgekoppelter Beschleuniger (NAA) auf Basis von Field Programmable Gate Arrays (FPGA) signifikant gesteigert werden. Im Gegensatz zu aktuellen Lösungen wird die enge Kopplung zwischen Trägersystem und FPGA-Beschleuniger aufgelöst. Stattdessen werden die Beschleuniger über das Netzwerkprotokoll RoCEv2 angesprochen, was ihre flexible Zuordnung zu Knoten erlaubt. Hierzu werden die Kommunikationsschnittstellen geschaffen und die Integration in das HPC-Data-Center, insbesondere in das Ressourcenmanagement, untersucht. Das im Rahmen des GreenHPC-Programms geförderte BMBF-Projekt wird durch die Universität Potsdam koordiniert. Partner sind das Fraunhofer Heinrich-Hertz-Institut, das ZIB, das GeoForschungsZentrum Potsdam und die PERFACCT GmbH. Weitere Informationen: greenhpc.eu/ .

Simulation optimiert Emissionsreduzierung

Die Verringerung schädlicher Stickoxid-Emissionen (NOx) von Dieselmotoren erfordert eine komplexe Abgasreinigung. Die Euro-VI-Emissionsnormen setzen spezialisierte Abgassysteme voraus. Meist wird Harnstofflösung in den Abgasstrom eingespritzt, um NOx in harmlose Bestandteile umzuwandeln. Bei der Entwicklung eines Emissionsminderungssystems für ein Fahrzeug wird die Konstruktion der Einheit optimiert, in der sich die Harnstoffwasserlösung mit dem Abgas vermischt. Da ein Trial-and-Error-Designprozess im Labor unpraktisch wäre, kommen rechenintensive Simulationen der numerischen Strömungsmechanik zum Einsatz. Der Abgassystemlieferant Purem by Eberspächer nutzt den Supercomputer Hawk des HLRS, um realistische Modelle zu erstellen und das Systemdesign zu optimieren. Dies beschleunigt den Entwicklungsprozess und ermöglicht Lösungen, um NOx gleichmäßig und effizient aus dem Abgas zu entfernen. Die Simulationen berücksichtigen Faktoren wie Temperatur, Druck und Abgasgeschwindigkeit. Weitere Informationen: hlrs.de/de/news/detail/simulation .

KI steuert Plasmabeschleuniger

Mithilfe von Methoden des maschinellen Lernens hat ein Forschungsteam am DESY einen Plasmateilchenbeschleuniger darauf trainiert, maßgeschneiderte Strahlen für verschiedene Anwendungen zu liefern. Während für bestimmte medizinische Anwendungen der Fokus auf der Energie des Strahls liegt, spielt in physikalischen Experimenten eher seine Ladung eine Rolle. Diese Eigenschaften bei kompakten Plasmabeschleunigern einzustellen, ist derzeit eine Herausforderung, da ihre Steuerung von verschiedenen Eingangsparametern mit hochgradig nichtlinearen Beziehungen zu den Ausgangsgrößen abhängt. Der Ansatz des DESY-Teams zeigt, dass die Optimierung mit maschinellem Lernen die Einstellung der gewünschten Strahleigenschaften ermöglicht, ohne andere Parameter zu verschlechtern. Dazu wurden GPU-Ressourcen des DESY-HPC-Clusters Maxwell eingesetzt. Die Forschenden um Sören Jalas haben ihren Ansatz im Fachblatt „Physical Review Accelerators and Beams“ veröffentlicht. Weitere Informationen: desy.de/plasmabeschleuniger-steuern .

Bio-inspirierte Optimierer für Supercomputer

Die am SCC entwickelte Software Propulate löst rechenintensive Optimierungsprobleme mit genetischen Algorithmen. Die Software ist auf parallele Hochleistungsrechner ausgelegt, einfach zu bedienen und öffentlich verfügbar. Propulate adaptiert von der biologischen Evolution inspirierte Strategien, um eine Population von Lösungskandidaten über mehrere Generationen iterativ zu verbessern. In Software umgesetzt kann das zugrundeliegende asynchrone Optimierungsverfahren Leerlauf der Rechenknoten eines Supercomputers vermeiden. Propulate ist damit schneller und sogar akkurater als ein vergleichbarer etablierter Algorithmus; in typischen Benchmarks meist eine ganze Größenordnung. Die Software eignet sich zur großskaligen Optimierung der Architektur und Hyperparameter neuronaler Netze. Sie wurde bereits in verschiedenen Anwendungen eingesetzt, darunter elektrische Netzlastvorhersage, Satellitenfernerkundung und molekulare Strukturbiologie. Weitere Informationen: scc.kit.edu/ueberuns/16955.php .

Ethische Führung: Glaubwürdigkeit als Schlüssel

In der KI-Entwicklung spielt ethische Führung eine entscheidende Rolle. Da Management-Entscheidungen zur Entwicklung von KI Auswirkungen auf den gesamten Prozess und dessen Gestaltung haben, ist es entscheidend, dass ethische Leitlinien und Prozesse von der Unternehmensspitze klar kommuniziert und unterstützt werden. Exemplarisch gilt hier der sogenannte „tone from the top“: Beschäftigte orientieren sich an den Entscheidungen ihrer Spitzenmanager:innen. Es ist deshalb entscheidend, dass Führungskräfte als ethische Vorbilder agieren und dadurch die Belegschaft dazu motivieren, dem Beispiel zu folgen. Durch eine formale Einbindung ethischer Überlegungen in den Entwicklungsprozess signalisiert die Führungsebene die Wichtigkeit dieser Fragestellungen. Im aktuellen Projekt „Ethik in der agilen Softwareentwicklung“ entwickelt ein Team des Bayerischen Forschungsinstituts für Digitale Transformation (bidt), an der Bayerischen Akademie der Wissenschaften, gemeinsam mit Forschenden der TUM ein Konzept, um ethische Überlegungen in den Prozess der Softwareentwicklung zu integrieren. Weitere Informationen: bidt.digital/forschungsprojekt/ethik .