September 2021

Gauß-Allianz newsletter - Issue 92

Startschuss für den NHR-Verein

Das Nationale Hochleistungsrechnen (NHR) ist am 23. August einen wichtigen Schritt vorangekommen: Acht von Bund und Ländern geförderte Rechenzentren haben sich mit der Gründung des Vereins für Nationales Hochleistungsrechnen (NHR-Verein e.V.) zu einem leistungsstarken Verbund zusammengeschlossen. Insbesondere wollen sie ihre Aktivitäten und Rechenkapazitäten stärker koordinieren. Zahlreiche Forschungsfragen, z. B. zum Klimawandel, aus der Medizin oder der Materialwissenschaft, können heute nur durch die Nutzung großer Rechenkapazitäten und den Einsatz intelligenter Anwendungen beantwortet werden. Der NHR-Verein wird den Forschenden zukünftig die Nutzung moderner HPC-Infrastrukturen bundesweit und standortunabhängig nach einem wissenschaftsgeleiteten Verfahren ermöglichen, um zugleich bestmögliche Beratung für die jeweiligen Fragestellungen sicher zu stellen. Mit dem NHR werden die fachlichen und methodischen Stärken von Hochleistungsrechenzentren in einem nationalen Verbund weiterentwickelt. Durch den Aufbau neuer Kompetenzen wird langfristig die Leistungsfähigkeit des Wissenschaftlichen Rechnens in Deutschland gesichert. Bund und Länder stellen dafür gemeinsam jährlich bis zu 62,5 Mio. Euro bereit, mit denen die Investitionen und der Betrieb der geförderten Rechenzentren über einen Zeitraum von jeweils zehn Jahren finanziert werden. Weitere Informationen: gwk-bonn.de/fileadmin/Redaktion/Dokumente/Pressemitteilungen/pm2021_08.pdf

BMBF-Projektförderung SCALEXA

Mit der am 26. August erschienenen Richtlinie SCALEXA fördert das BMBF Verbundprojekte im Höchstleistungsrechnen, bevorzugt mit Industriebeteiligung. Im Fokus der Ausschreibung stehen die Verbesserung der Skalierbarkeit von Anwendersoftware für den zukünftigen Exaflop-Leistungsbereich sowie die Weiterentwicklung von Technologien für Exascale-Systeme. Weitere Förderziele neben der Skalierung der Methoden betreffen die Optimierung der Ressourceneffizienz, die Lastverteilung der Anwendungen sowie die Auslastung der Systeme und die effiziente Verarbeitung großer Datenmengen. Für den Nachweis der Zielerreichung können die Systeme der Ebene 1 (GCS) sowie die Systeme der Ebene 2 (NHR & thematisch dedizierten HPC-Zentren) dienen. In dem zweistufigen Antragsverfahren können bis zum 15. November zunächst Projektskizzen in elektronischer Form beim zuständigen Projektträger VDI/VDE Innovation + Technik GmbH eingereicht werden. Weitere Informationen: www.bmbf.de/bmbf/shareddocs/bekanntmachungen/de/2021/08/2021-08-26-Bekanntmachung-SCALEXA.html .

Bahnbrechende Turbulenz-Simulationen

Extremereignisse wie heftige Tornados und starke Fluten sind zwar selten, ihre Erforschung ist jedoch aufgrund der unverhältnismäßig starken Wirkungen besonders wichtig. Die Vorhersage solcher extremen Ereignisse, die im Kontext dynamischer Systeme auch als Intermittenz bezeichnet werden, ist eine große Herausforderung. In jeder turbulenten Strömung treten extreme Fluktuationen auf, wobei deren Intensität mit steigender Reynoldszahl zunimmt. Mithilfe hochaufgelöster und hochakkurater Strömungssimulationen haben Michael Gauding (Universität Rouen) und Mathis Bode (RWTH Aachen University) federführend Intermittenz in Scherströmungen untersucht. Sie unterscheiden dabei zwischen interner Intermittenz, die auf kleinsten Skalen auftritt und ein charakteristisches Merkmal jeder vollentwickelten turbulenten Strömung ist und externer Intermittenz, die sich am Rand freier Scherströmungen manifestiert. Mit den auf den Höchstleistungsrechnern (JUWELS/JURECA/JUQUEEN) des Jülich Supercomputing Centre durchgeführten Simulationen gelang es den Forschern erstmals, eine Kopplung zwischen interner und externer Intermittenz nachzuweisen, diese zu quantifizieren und in die klassische Turbulenztheorie einzubauen. Dies ist ein wichtiger Schritt für die Vorhersage derartiger Extremereignisse. Weitere Informationen: itv.rwth-aachen.de

Effiziente Biosimulationen mit Schwarmintelligenz

Die detaillierte Struktur von Biomolekülen spielt bei deren lebenswichtigem Zusammenspiel im menschlichen Körper eine zentrale Rolle. In der Forschung – beispielsweise für die Entwicklung neuer Medikamente – werden diese Strukturen in aufwändigen Experimenten bestimmt. Häufig können die gewonnenen Daten jedoch nicht eindeutig einer bestimmten Struktur zugeordnet werden. Forschende des KIT, des FZ Jülich, des DKFZ und der Universität Duisburg/Essen haben gemeinsam eine KI-basierte Methode entwickelt, um solche mehrdeutigen Daten mithilfe datengestützter molekularer Simulationen auszuwerten. Diese Methode beruht auf dem Schwarmlernen der KI-Forschung. Dabei simuliert ein Supercomputer viele Schwarmmitglieder gleichzeitig auf über 1000 Prozessoren. Jedes Mitglied testet unterschiedliche Kombinationen der mehrdeutigen Messwerte mit einem ergänzenden physikbasierten Computermodell. Durch Kommunikation der Schwarmmitglieder untereinander wird gemeinsam eine optimale Lösung gefunden, die für die bestmögliche Interpretation der Daten als molekulare Strukturen essentiell ist. Damit liefert die Methode sehr akkurate Strukturen und nutzt gleichzeitig die verfügbaren Rechenressourcen sehr effizient. Die Ergebnisse wurden in der Zeitschrift Nature Machine Intelligence veröffentlicht. Weitere Informationen: kit.edu/kit/29451.php

Zehn Jahre Nachhaltigkeitsstrategie am HLRS

Vor zehn Jahren begann das intensive Engagement des HLRS für Umweltschutz. Zu seinem Umweltmanagementplan gehören der effiziente Betrieb der Rechen- und Kühlsysteme und die Integration von Nachhaltigkeitsaspekten in das gesamte Zentrum. Zudem verpflichtet sich das HLRS, seine Umweltleistung kontinuierlich zu verbessern und seine Expertise mit anderen Datenzentren zu teilen, etwa mit dem Praxisleitfaden „Nachhaltigkeit in Rechenzentren“. Im letzten Jahr hat das HLRS erstmals die Zertifizierung nach dem Eco-Management and Audit Scheme (EMAS) und dem Umweltzeichen Blauer Engel erhalten. Auch die aktuelle Planung für ein neues Rechnergebäude erfolgt unter Nachhaltigkeitsaspekten. Zwei neue Forschungsprojekte greifen dies ebenso auf. So wird das vom Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg geförderte Projekt ENRICH (Energie, Nachhaltigkeit, Ressourceneffizienz in IT und Rechenzentren) einen digitalen Atlas mit Möglichkeiten zur Steigerung der Energieeffizienz im IT-Sektor in dem Bundesland entwickeln. Außerdem wird das HLRS mit dem Stuttgarter Institut für Gebäudeenergetik, Thermotechnik und Energiespeicherung zusammenarbeiten, um neue Ansätze für die dynamische Regulierung der Kühlung seines Flaggschiff-Supercomputers zu testen. Weitere Informationen: hlrs.de/about-us/sustainability-in-hpc/

Künstliche Intelligenz für eine sichere Automatisierung

Festo, ein in Esslingen ansässiger Hersteller von Automatisierungslösungen, erhöht seine Investitionen in maschinelles Lernen. Das Unternehmen trainiert Roboter aus dem Automatisierungsbereich auf den sichereren, effizienteren Umgang mit Menschen, indem es zur Verbesserung seines Algorithmus reinforcement learning verwendet, d. h. ihn durch Feedback zu seinen Entscheidungen trainiert. Dieses Training bedarf neben etwa 70 bis 100 Terabyte an Daten auch GPU-Beschleuniger und der entsprechenden Erfahrung mit umfangreichen Simulationen. Deshalb kooperiert Festo mit dem HLRS und nutzt dessen System Cray CS-Storm. Das Team wird nicht nur die „Intelligenz“ des Algorithmus durch effektives Training erhöhen, sondern sich auch auf die Sammlung aussagekräftiger Datensätze aus den Simulationen mit Robotern und aus Experimenten im Forschungs- und Entwicklungslabor von Festo fokussieren. Letztere bilden die Basis für die Vorstellung und Konzeption neuer Arbeits- und Interaktionsmöglichkeiten von Mensch und Maschine. Schließlich wird das Team die Anwendungsmöglichkeiten der mithilfe der HLRS-Ressourcen gewonnenen Erkenntnisse und Daten auf reale Fertigungsszenarien optimieren. Weitere Informationen: hlrs.de/news/detail-view/2021-07-29/

NFDI: GA-Mitglieder auch in zweiter Förderrunde dabei

Simulationsergebnisse, Messdaten, Interviews, Bilder, Social-Media-Daten, Statistiken: Forschungsdaten sind der wichtigste Schlüssel für zahlreiche Fragestellungen. Sie sollten deshalb vielen Nutzenden zur Verfügung gestellt werden. Für dieses zentrale Ziel wurden am 2. Juli zum zweiten Mal zahlreiche Projekte aus unterschiedlichen wissenschaftlichen Fachgebieten im Rahmen der Nationalen Forschungsdateninfrastruktur (NFDI) zur Förderung bestätigt, in denen Mitgliedszentren der Gauß-Allianz eine tragende Rolle als Projektpartner einnehmen. Allgemeine Herausforderungen, die nahezu jeden Forschungsbereich betreffen, sind beispielsweise die strukturierte Speicherung von Metadaten, die Vollständigkeit der Informationen und deren effiziente Archivierung und Veröffentlichung. Auch die Harmonisierung des technischen Zugangs und der Zugangsmöglichkeiten sind häufige Fragen z. B. für Forschende an unterschiedlichen Einrichtungen, die an ähnlichen Themen forschen und die Datengrundlage dafür miteinander teilen wollen. Besondere Rechenzentrumsinfrastrukturen – v. a. im Bereich der Speichertechnologie – sind angesichts der wachsenden Datenmengen in der Wissenschaft gefragt, insbesondere wenn es um große Datensätze aus HPC-Simulationen geht. Schließlich sollen diese Daten auffindbar, zugänglich, interoperabel und wiederverwendbar bzw. wiederverwertbar sein – also die sogenannten FAIR-Prinzipien des modernen wissenschaftlichen Datenmanagements erfüllen. Weitere Informationen: nfdi.de/konsortien/ .