Top500-Liste mit 31 deutschen Systemen
Die aktuelle 59. Top500-Liste läutet offiziell die Exascale-Ära ein. Das von HPE Cray am Oak Ridge National Laboratory installierte heterogene „Frontier“-System aus EPYC-Prozessoren und Instinct-GPUs von AMD erreichte kurz vor der Veröffentlichung der Liste eine gemessene Linpack-Leistung (Rmax) von 1.102 ExaFlop/s bei einer Gesamtleistung von 1.685,65 ExaFlop/s (Rpeak). Das schnellste europäische System – ebenfalls von HPE Cray und identisch zu „Frontier“ – auf dem 3. Platz ist das im Rahmen des EuroHPC-JU in Finnland am CSC - IT Center for Science installierte Pre-Exascale-System mit einer Gesamtleistung von 214,35 PetaFlop/s. Mit Platz 11 ist der am JSC betriebene „JUWELS-Booster“ mit 71 PetaFlop/s (Rpeak) weiterhin das schnellste deutsche System. Die aktuelle Top500-Liste zählt insgesamt 31 deutsche Systeme, 13 davon unter den ersten 100. Aus der Reihe der Gauß-Allianz-Mitglieder neu hinzugekommen sind die beiden Systeme „Noctua 2“ auf Platz 121 mit 5,3 PetaFlop/s (Rpeak) installiert von Atos an der Universität Paderborn am PC2 sowie das von Megware an der FAU Erlangen-Nürnberg installierte System „Alex“ auf Platz 184 mit 4,99 PetaFlop/s. Weitere Informationen: top500.org/lists/top500/2022/06/ .
NextGen KI-System für bayerische Spitzenforschung
Das LRZ erweitert seine HPC-Infrastruktur um ein Cerebras-CS-2-System mit HPE-Superdome-Flex-Server. Es bietet damit seinen Nutzenden – v. a. der bayerischen Spitzenforschung im Bereich KI – die Rechenkapazität, um große Datenvolumen mit KI- und ML-Methoden auszuwerten. Als erstes wissenschaftliches Rechenzentrum in Europa setzt das LRZ damit auf die Wafer Scale Engine 2, den aktuell größten weltweit gefertigten Chip mit 850.000 Rechenkernen und der höchsten Rechenleistung für smarte Datenverarbeitung. Mögliche Anwendungsbereiche sind u. a. die Verarbeitung natürlicher Sprache, die medizinische Bildverarbeitung mit innovativen KI-Algorithmen zur Analyse medizinischer Bilder sowie die numerische Strömungsmechanik zur Verbesserung des Verständnisses in Bereichen wie Luft- und Raumfahrttechnik sowie Fertigung. Weitere Informationen: lrz.de/presse/ereignisse/2022-05-25-KI-System-der-naechsten-Generation/
Paderborn Mitglied der HACC-Initiative
Nach der Übernahme von Xilinx durch AMD ist das Programm „Xilinx Adaptive Compute Clusters“ (XACC) in die Heterogeneous Accelerated Compute Clusters (HACC)-Initiative von AMD übergegangen. Ausgehend von einem Schwerpunkt auf Anwendungsbeschleunigung mit FPGAs verbreitert diese Initiative die Perspektive auf weitere heterogene Plattformen mit CPUs, GPUs und KI-Recheneinheiten. Aufgrund seiner langjährigen HPC-Forschung mit Beschleunigern wurde das Paderborn Center for Parallel Computing (PC2) als HACC-Mitglied aufgenommen. Als eine von weltweit fünf beteiligten Universitäten in der Initiative vertritt Paderborn die Aspekte HPC-Anwendungen mit FPGAs und Bereitstellung für den effizienten Rechenzentrumsbetrieb. Mit dem HPC-System Noctua 2 stehen diese Ressourcen im NHR-Verbund zur Verfügung. Weitere Informationen: xilinx.github.io/xacc/
natESM-Projekt bietet Modellierungsunterstützung
Im Rahmen der deutschen Erdsystemmodellierungsstrategie nahm im November 2021 ein über das Projekt natESM finanziertes nationales Support-Team seine Arbeit auf, um die Entwicklung von Klimamodellen bei technisch orientierten Fragen zu unterstützen. DKRZ und JSC bieten dabei die Möglichkeit zur gemeinsamen Softwareentwicklung von ESM-Komponenten auf HPC-Systemen an. Aus den 13 bisher eingegangenen Anträgen auf Unterstützung wurden zunächst vier ausgewählt; darunter für die Anpassung der Klimamodelle ICON-ART, mHM-ICON-YAC, FESOM und ParFLOW. Je nach Art und Schwierigkeitsgrad der Anfragen unterscheidet das Support-Team zwischen kurzen Beratungstätigkeiten mit einer Dauer von weniger als einem Monat und detaillierter Beratung inklusive Programmierleistungen mit Laufzeiten von bis zu 6 Monaten. Im Laufe des Jahres wird es weitere Auswahlverfahren geben, für die neue Anträge eingereicht werden können. Weitere Informationen: dkrz.de/de/natESM-sprints/
Zeitreise durchs das Universum
Mit Thesan, der größten und detailreichsten kosmologischen Simulation, zeigt ein internationales Forschungsteam, wie die Strahlung der ersten Galaxien den Kosmos veränderte und zur Reionisierung des interstellaren Wasserstoffgases führte. Damit erklärt Thesan erstmals quantitativ, wie die ersten Galaxien das Gas in ihrer Umgebung veränderten. Für das Projekt arbeitete das Max-Planck-Institut für Astrophysik in Garching drei Jahre mit dem MIT und der Harvard University zusammen. Die äußerst komplizierten, chaotischen Wechselwirkungen des frühen Universums sind eine große Herausforderung für die Modellierung. Mit höchster Detailgenauigkeit und dem bisher größten Datenvolumen hat Thesan ein realistisches Modell der Galaxienbildung mit einem Algorithmus, der die Wechselwirkung zwischen Licht und Gas verfolgt, sowie mit einem Modell für kosmischen Staub kombiniert. Die Simulation umfasst 300 Mio. Lichtjahre, modelliert eine Milliarde Jahre in der Entwicklung des Universums und erlaubt einen Blick auf die Zeit, als dort die ersten Sterne zu leuchten begannen und ihr Licht das sie umgebende Gas erwärmte – den Ausgangspunkt aller Entwicklungen. Dafür rechneten 60.000 Kerne des SuperMUC-NG zusammen rund 30 Mio. Prozessorstunden. Weitere Informationen: www.mpa-garching.mpg.de/1052233/news20220324?c=96994
SCC installiert KI-System von Graphcore
Das Nationale Hochleistungsrechenzentrum am SCC des KIT (NHR@KIT) bietet Forschenden aus ganz Deutschland Zugang zu einem KI-System von Graphcore. Projektvorschläge können ab sofort eingereicht werden. Durch das Multiple-Instruction Multiple-Data (MIMD)-Design der Graphcore IPU (Intelligence Processing Unit)-Prozessoren kann beim Training von KI-Modellen eine detailliertere Parallelität über mehrere Dimensionen hinweg erreicht werden. Damit eignen sich die IPU-Prozessoren für eine breite Palette neuer und aufkommender Berechnungsverfahren in der KI, wie Sparse Data Structures. Das am SCC installierte System IPU-POD16 von Graphcore bietet mit seinen 16 IPUs vier PetaFlop/s (FP16) KI-Rechenleistung und unterstützt KI-Frameworks wie TensorFlow, PyTorch, PyTorch Lightning, Hugging Face, Keras, ONNX oder PaddlePaddle. Weitere Informationen: nhr.kit.edu/userdocs/ftp/graphcore/
Auftakt: NHR4CES Community Workshop
Mit dem ersten NHR4CES Community Workshop des National High Performance Computing Center for Computational Engineering Science (NHR4CES) wird der Austausch gefördert, das Netzwerk gestärkt und neue Kooperationen angestoßen. Unter dem Titel “The Role of High Performance Computing in Computational Engineering Science” bietet das Online-Format am 20./ 21. Juni die Möglichkeit, sich über die Bedeutung von HPC in verschiedenen Bereichen der Computational Engineering Science zu informieren. Im Fokus stehen Themen aus der numerischen Strömungsmechanik und Verbrennung, der Materialwissenschaft und Medizin sowie Fragen der Parallelisierung und Leistungsfähigkeit – insbesondere auf den Gebieten Data Science, Machine Learning, Data Management und Visualisierung. Die Veranstaltung umfasst Präsentationen renommierter Forschender aus verschiedenen Bereichen mit anschließenden Diskussionen. Weitere Informationen: nhr4ces.de/index.php/nhr4ces-community-workshop/
Supercomputing für die Medizintechnik
Obwohl es in Baden-Württemberg eine große und wirtschaftlich starke Medizintechnikgemeinschaft gibt, hat diese bisher vergleichsweise wenig Gebrauch von Simulation oder ML- und KI-Methoden auf HPC-Systemen gemacht. Der Zugang zu mehr Rechenleistung hat für diese Branche das Potenzial, die Entwicklung neuer Produkte zu beschleunigen sowie ihre Leistungsfähigkeit zu validieren, Produktionsprozesse zu verbessern und Unternehmen bei der Erfüllung gesetzlicher Anforderungen zu unterstützen. Daher haben das HLRS, das Innovations- und Forschungszentrum Tuttlingen und die SICOS BW GmbH im Mai gemeinsam das Medical Solution Center CASE4Med (Computer Aided Solution Engineering for Medical) ins Leben gerufen. Mit Unterstützung des Ministeriums für Wissenschaft, Forschung und Kunst Baden-Württemberg werden das HLRS und seine Partner über fünf Jahre untersuchen, wie HPC den größten Nutzen für Unternehmen der Medizintechnik erbringen kann. Weitere Informationen: hlrs.de/de/news/detail/medical-solution-center-bringt-supercomputing-in-die-medizintechnikbranche
HPC für die Erdbeben-Tsunami-Risikoerkennung
Seit mehr als einem Jahrzehnt erforschen Geophysiker der Ludwig-Maximilians-Universität München und Informatiker der TU München die Risiken und Folgen von Erdbeben und Tsunamis. Mit Unterstützung der Höchstleistungsrechner am LRZ hat die Forschungsgruppe drei Kennzeichen eines Erdbebens identifiziert, die auf ein wachsendes Tsunami-Risiko hinweisen. Diese Kennzeichen, wie Spannung längs der Bruchlinie, Felskonsistenz und Stärke der Sedimentschichten spielen eine große Rolle in der Entwicklung von Tsunamis, die schwere Verwüstungen anrichten. Naturkatastrophen wie das Sumatra-Andamanen-Beben von 2004 können schreckliche Folgen haben – über 100.000 Menschen sind damals ums Leben gekommen. Mit der Nutzung von HPC will das Forschungsteam die Entwicklung besserer Vorwarnungssysteme unterstützen. Solche Themen gehören zum Bereich „Urgent Computing“, für den HPC-Systeme in Notfällen leichter zugänglich gemacht und schneller verwendet werden können. Die Ergebnisse der Forschungsgruppe wurden im Wissenschaftsjournal Nature Geoscience veröffentlicht. Weitere Informationen: nature.com/articles/s41561-021-00863-5