KISSKI – neues KI-Servicezentrum an der GWDG
Das „KI-Servicezentrum für Sensible und Kritische Infrastrukturen“ (KISSKI) zielt auf die Erforschung von Methoden der Künstlichen Intelligenz (KI) und deren Bereitstellung in einem hochverfügbaren Servicezentrum ab. Besonderer Fokus liegt dabei auf den Bereichen Energie und Medizin mit ihrem hohen Potenzial für KI-gesteuerte Prozessoptimierung sowie den besonders hohen Anforderungen an die zugrunde liegende Hard- und Software. KISSKI stellt nicht nur die entsprechende IT-Infrastruktur bereit und entwickelt KI-Dienste, es offeriert auch umfangreiche Consulting- und Schulungsangebote. Das neue Verbundprojekt aus insgesamt 7 Forschungseinrichtungen an den Standorten Göttingen, Hannover und Kassel wird seit November 2022 durch das BMBF mit 17 Mio. Euro für zunächst 3 Jahre gefördert. Im Rahmen von Pilotprojekten und zur Evaluierung der Konzepte steht KISSKI deutschlandweit Forschungseinrichtungen und der Industrie, insbesondere KMUs und Start-Ups, offen. Weitere Informationen: kisski.gwdg.de/
NHR@TUD – neue, experimentelle HPC-Hardware
Mit dem HPC ARM Developer Kit bietet NVIDIA ein System, mit dem eine ARM-CPU-Architektur, leistungsfähige GPUs, neuartige Data Processing Units (DPUs) sowie deren Zusammenspiel für den Einsatz für HPC- und KI-Zwecke getestet werden können. Neben einem 80-Kern ARM-Prozessor von Ampere verfügt das Developer Kit über 512 GB Arbeitsspeicher, 2 NVIDIA-A100-Grafikkarten und 2 NVIDIA-Bluefield-DPUs. Bei letzteren handelt es sich um Netzwerkkarten für Infiniband oder 200 Gbit Ethernet, die durch einen eigenen ARM-Prozessor und einen Hardwarebeschleuniger das Host-System bei datengetriebenen Workflows entlasten können. Das ZIH der TU Dresden betreibt nun ein solches System als Teil der HPC-Installation im Rahmen des nationalen Hochleistungsrechnens NHR@TUD. Es steht für Interessierte für Architekturevaluierungen, Tests und Benchmarks sowie – in begrenztem Umfang – für Produktionsrechnungen bereit. Weitere Informationen: doc.zih.tu-dresden.de/jobs_and_resources/arm_hpc_devkit/
Beschaffung des Exascale-Systems JUPITER eingeleitet
Im Juni 2022 wählte die europäische Supercomputing-Initiative EuroHPC JU das JSC als Standort für den ersten europäischen Supercomputer der Exascale-Klasse aus. In den vergangenen Wochen wurden zwei wichtige Meilensteine auf dem Weg zur Realisierung dieses Rechners – genannt JUPITER – erreicht. Im November 2022 unterzeichneten das Forschungszentrum Jülich und EuroHPC JU einen Vertrag für die Beschaffung und den Betrieb des Rechners. Darin werden die Rollen, Rechte und Pflichten beider Parteien während des gesamten Lebenszyklus von JUPITER festgelegt. Dies ebnete den Weg für den nächsten Schritt am 16. Januar: Die Beschaffung von JUPITER wurde von EuroHPC JU in enger Zusammenarbeit mit dem JSC durch die Veröffentlichung der Ausschreibungsunterlagen eingeleitet. Es ist geplant, den Anbieter bis September auszuwählen und die Installation des Supercomputers auf dem Jülicher Campus im ersten Quartal 2024 zu beginnen. JUPITER wird wie der aktuelle Jülicher Spitzenrechner JUWELS auf einer dynamischen, modularen Supercomputerarchitektur basieren, die das JSC gemeinsam mit europäischen und internationalen Partnern in den europäischen DEEP-Forschungsprojekten entwickelt hat. Die Gesamtkosten für das System belaufen sich auf rund 500 Mio. Euro. Die Hälfte der Kosten wird von EuroHPC JU und die andere Hälfte zu gleichen Teilen vom BMBF und dem Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen getragen.
Exascale-Computing für Klimaprojektionen
Mit Exascale-Supercomputern kann ein bisher unerreichter Detailgrad in der Modellierung unserer Erde erreicht werden, der darauf hoffen lässt, bisher verbleibende Unsicherheiten der Klimaprojektionen deutlich zu reduzieren. Die massive Parallelität und Heterogenität von Exascale-Systemen ist jedoch eine Herausforderung für die effiziente Ausführung von Erdsystemmodellen. Im Forschungsprojekt „Optimierung von Simulationsalgorithmen für Exascalesysteme zur Berechnung des Erdsystemmodells ICON“ sollen neuartige Methoden der parallelen Ausführung, Kommunikation und Lastbalancierung für ICON entwickelt und optimiert werden. Neben den GA-Projektpartnern DKRZ, FZJ und ZIH der TU Dresden kooperieren dafür das Max-Planck-Institut für Meteorologie, die ParTec AG sowie, als Koordinator, das Leibniz-Institut für Troposphärenforschung. Am DKRZ soll eine generische und skalierbare Software-Infrastruktur entwickelt werden, die eine nebenläufige Kopplung von ICON-Modellkomponenten mit optimierter Kommunikation ermöglicht. Das FZJ wird die notwendigen Anpassungen der Klimamodelle an die heterogene modulare Supercomputerarchitektur durch Leistungsanalyse und Benchmarking ermitteln und verifizieren. Schwerpunkt der Forschungsarbeiten am ZIH ist die Untersuchung effizienter und hochskalierender Methoden zur dynamischen Lastbalancierung von ICON-Modellkomponenten. Das Vorhaben wird im Rahmen der BMBF-Maßnahme „Neue Methoden und Technologien für das Exascale-Höchstleistungsrechnen“ (SCALEXA) für 3 Jahre gefördert. Weitere Informationen: gauss-allianz.de/de/project/title/IFCES2
Digitaler Zwilling für energieeffiziente Rechenzentren
Im aktuellen BMBF-Projekt IT-ZAUBER entwickeln die RWTH Aachen, die TU Dresden und die ROM-Technik GmbH & Co. KG gemeinsam mit den assoziierten Partnern Sachsen Energie AG und ICT Facilities GmbH ein digitales Abbild des Rechenzentrums, das dessen Eigenschaften, Zustand und Verhalten durch Modelle, Informationen und Daten erfasst. Die Einsatzmöglichkeiten als digitales Werkzeug für Planung und Betrieb von Rechenzentren sollen beispielhaft an den beiden HPC-Zentren der RWTH und der TU Dresden, demonstriert und evaluiert werden. Dieser digitale Zwilling kennt sowohl den Zustand und das Verhalten der IT-Infrastruktur als auch das Kühlsystem und dessen Integration in die weiteren Versorgungsstrukturen. Er ist damit für Zustandsbewertungen und Sollwertermittlungen nutzbar und geht weit über den Stand aktueller Betriebskonzepte hinaus. Das Projekt erhält als eines der 9 Verbundforschungsprojekte auf dem Gebiet des energieeffizienten HPC (GreenHPC) eine dreijährige Förderung durch das BMBF. Weitere Informationen: itc.rwth-aachen.de/go/id/zjggi
Morpheus-Projektergebnisse weltweit genutzt
Die biologische Grundlagenforschung und biomedizinische Anwendungen setzen zunehmend mathematische Modelle und Simulationen der Prozesse innerhalb von Zellen und Geweben ein. Damit die Ergebnisse reproduzierbar und nachnutzbar werden, unterstützte das DFG-Programm „Nachhaltigkeit von Forschungssoftware“ die am ZIH der TU Dresden entwickelte Open-Source-Software Morpheus. Als neue Plattformtechnologie für Reproduzierbarkeit von mechanistischen multizellulären Modellen etablierte das Projekt den Modelldefinitionsstandard MorpheusML; die weltweit Nutzenden archivieren damit bereits zahlreich Forschungsdaten in einem am ZIH betriebenen Modellrepositorium mit zitierfähigem persistenten Identifier. Umgekehrt bilden diese Paare aus Modell und publizierten Simulationsergebnissen eine Test-Suite für Morpheus. Darauf aufbauend wurde das Morpheus Release 2.3 jetzt mit einem parallelisierten und zugleich statistisch exakten Algorithmus für zelluläre Potts-Modelle veröffentlicht: morpheus.gitlab.io
Blue Marble – 1km-ICON-Simulation des Wetters
Am 7. Dezember 1972 befand sich die Crew der Raumsonde Apollo 17 auf dem Weg zum Mond und fotografierte die Erde. Das als Blue Marble bekannte Foto gilt als eines der symbolträchtigsten Bilder. Es veränderte das Weltbild der Menschen und entfachte weltweit das Bewusstsein für Fragen des Friedens, der Solidarität, der Nachhaltigkeit und des Umweltschutzes. Anlässlich des 50. Jahrestag dieses Fotos simulierte ein Team des Max-Planck-Instituts für Meteorologie, des DKRZ und von NVIDIA mit dem Wetter- und Klimamodell ICON in einer Auflösung von 1 km auf dem DKRZ-Supercomputer Levante das Wetter dieses Datums und der folgenden zwei Tage. Die Visualisierung zeigt den Fortschritt der Klimamodellierung in den letzten Jahrzehnten und demonstriert, wie koordinierte Anstrengungen mit den heute zur Verfügung stehenden Werkzeugen dazu beitragen, das sich verändernde Klima der Erde besser zu verstehen. Weitere Informationen und Video: dkrz.de/de/bluemarble
Zweiter NHR4CES Community Workshop
Im Fokus des zweiten durch NHR4CES organisierten Community Workshops vom 28. Februar bis 1. März steht „Machine Learning in Computational Fluid Dynamics”. Ziel der virtuellen Veranstaltung ist es, die Forschungsbereiche rund um Machine Learning (ML) und Computational Fluid Dynamics (CFD) zusammenzubringen, um neue Ideen auszutauschen, Herausforderungen zu diskutieren und dieses neue Forschungsgebiet einer breiteren Gemeinschaft vorzustellen. Der Workshop ist darauf ausgerichtet, Potenziale hervorzuheben, die mit dem Einsatz von ML-Methoden in CFD einhergehen. Darunter fallen die Verbesserung der Modellierung von Turbulenzen und Verbrennungsabschlüssen, die Entwicklung von Modellen reduzierter Ordnung und der Entwurf vielseitiger neuronaler Netzarchitekturen. Ebenso sollen potenzielle Einschränkungen erörtert und diskutiert werden. Weitere Informationen: nhr4ces.de/community-workshop-2023/