Dezember 2018/Januar 2019

Gauß-Allianz newsletter - Issue 68

TOP500 mit deutschem Top10-Ranking

In der auf der SC18 in Dallas, Texas, USA veröffentlichten TOP500-Liste der schnellsten Supercomputer der Welt ist mit SuperMUC-NG, dem neuen Höchstleistungsrechner des Leibniz-Rechenzentrums der Bayerischen Akademie der Wissenschaften (LRZ) in Garching/München, erstmals seit Juni 2016 wieder ein deutsches System in den Top Ten. Mit einer Linpack-Leistung von 19,46 PetaFlop/s rangiert der neue LRZ-Rechner, der Anfang 2019 für die Nutzer freigegeben werden soll, auf Platz 8. Das im Juni am Jülich Supercomputing Centre in Betrieb genommene erste Modul des JUWELS-Clusters belegt mit gemessenen 6,18 PetaFlop/s Rang 26, auf Platz 30 folgt das am HLRS in Stuttgart installierte CRAY XC40-System Hazel Hen, mit einer Linpack-Leistung von 5,64 PetaFlop/s. Geführt wird die aktuelle TOP500-Liste von zwei IBM-Supercomputern, die auf Power 9-CPUs und NVIDIA V100-GPUs basieren: Auf dem ersten Platz hat das System Summit des Oak Ridge National Laboratory (ORNL) seinen Vorsprung weiter ausgebaut, indem es seinen Linpack auf 143,5 PetaFlop/s erhöhen konnte. Auf den Plätzen zwei und drei folgen Sierra des Lawrence Livermore National Laboratory (LLNL) mit 94,6 PetaFlop/s und das chinesische System Sunway TaihuLight im National Supercomputing Center in Wuxi mit einem Linpack-Ergebnis von 61,4 PetaFlop/s. Deutschland ist mit insgesamt 17 Systemen in der Liste vertreten, davon mit 15 Systemen aus der Gauss-Allianz, und hiervon wiederum mit 9 Systemen in den Top100. Weitere Informationen: https://www.top500.org/lists/2018/11/

Neuer Supercomputer für das HLRS

Das Höchstleistungsrechenzentrum Stuttgart (HLRS) erhält zur Unterstützung der Ingenieurwissenschaften und Forschung in Wissenschaft und Industrie einen neuen Supercomputer. Ende November erfolgte am HLRS die offizielle Vertragsunterzeichnung zur Beschaffung des neuen Rechnersystems mit dem Codenamen „Hawk“, das mit einer theoretischen Spitzenleistung von 24 PetaFlop/s 3,5 Mal schneller sein wird als der bisherige HLRS-Höchstleistungsrechner Hazel Hen. Systemlieferant des nächsten HLRS-Supercomputers, der je zur Hälfte von Bund und Land finanziert wird, ist Hewlett Packard Enterprise (HPE). Die Installation von Hawk soll im zweiten Halbjahr 2019 anlaufen, die Inbetriebnahme ist für Ende 2019 vorgesehen. Weitere Informationen: https://www.hlrs.de/whats-new/news/detail-view/2018-11-13/

Superschnelles Netz für die Hochenergiephysik

Das KIT ist die einzige Einrichtung Deutschlands für Forschung und Lehre, die breitbandige Netzwerkanbindungen zu zwei Internet Service Providern betreibt. Die Kapazitäten von je 2x100 Gigabit/s (100G) stehen über das Deutsche Forschungsnetz (DFN) und das Landeshochschulnetz Baden-Württemberg (BelWü) zur Verfügung. Über den DFN-Uplink steht zusätzlich zur Internetanbindung der Zugang in das weltweite LHC-ONE-Netz bereit, ein virtuelles privates Netz (VPN), über das Daten verschiedener Forschungsexperimente fließen. Dazu gehören LHC-Experimente (Large Hadron Collider) sowie weitere aus der internationalen Teilchen- und Astroteilchenphysik. Die Rohdaten der Experimente werden über das LHCOPN, ein CERN-zentrisches Stern-VPN-Netzwerk, an die Tier-1-Zentren des Worldwide LHC Computing Grid übermittelt. Das Tier-1-Zentrum GridKa am KIT war bisher mit zwei 10G-Leitungen in das LHCOPN eingebunden. Nun wurde eine 100G-Verbindung zum CERN neu installiert, die über Leitungen des Landeshochschulnetzes BelWü und des Providers SWITCH aus der Schweiz realisiert wurde. Die zwei bisherigen 10G-Verbindungen bleiben als redundante Anbindungen bestehen und werden 2019 durch eine weitere 100G-Verbindung ersetzt. Somit ist das KIT schon jetzt für die steigenden Datenmengen der Hochenergiephysik-Experimente gerüstet.

Hochgeschwindigkeitsanbindung an X-WiN für GCS

Die drei Zentren des Gauss Centre for Supercomputing HLRS, JSC und LRZ sind seit Oktober mit einer 2x100 Gigabit/s-Datenanbindung an das deutsche Hochgeschwindigkeitswissenschaftsnetz X-WiN angeschlossen. Sie verfügen damit über die derzeit schnellsten individuellen Anbindungen an das nationale Backbone des Deutschen Forschungsnetzes (DFN). Das unter dem Projektnamen InHPC-DE im Herbst 2017 angelaufene Vorhaben ist ein Bestandteil der nationalen High-Tech-Strategie des BMBF, die die Beschaffung und den Betrieb von Höchstleistungsrechnern der nächsten Generation, Optimierung der Infrastruktur und die Ausweitung und Intensivierung der Nutzerunterstützung in den drei GCS-Zentren vorsieht. Weitere Informationen: http://www.gauss-centre.eu/inhpc-de

Flammen detailliert auf HPC-Systemen simulieren

Eine Publikation des SimLab Energy am SCC stellt eine Methode vor, die die parallele Berechnung von Verbrennungsprozessen auf Supercomputern beschleunigt. Das Paper „Optimizing Load Balancing of Reacting Flow Solvers in OpenFOAM for High Performance Computing“ erhielt auf der 6. OpenFOAM-Konferenz 2018 den Best Paper Award. Numerische Simulationen von Verbrennungsprozessen werden meist mit vielen Vereinfachungen durchgeführt, um den Rechenaufwand gering zu halten. Sollen Flammen hochdetailliert simuliert werden, sind viele physikalische Prozesse zu berücksichtigen. Solche Simulationen sind nur auf Supercomputern möglich. Bei der Berechnung chemischer Reaktionsgeschwindigkeiten kommt es oft vor, dass einige Prozesse mehr Rechenaufwand benötigen, als andere. Die Grundidee ist es daher, Paare von Prozessen zu bilden, die sich ihre Arbeit zur Berechnung teilen. Dies wird möglich, weil die Berechnung chemischer Reaktionsgeschwindigkeiten freier auf die Prozesse verteilt werden kann als die Berechnung vieler anderer Größen. Die Methodik wurde mit der CFD-Software OpenFOAM implementiert, welche selber keinen Lastausgleich für diese Art von Berechnungen bietet. Weitere Informationen: https://www.scc.kit.edu/ueberuns/12362.php

International HPC Summer School 2019

Die nächste und zehnte „International Summer School on HPC Challenges in Computational Sciences” (IHPCSS) findet vom 7. bis 12. Juli 2019, mit RIKEN CCS als Gastgeber, in Kobe, Japan statt. An der Organisation beteiligen sich PRACE für Europa, XSEDE für die USA, SciNet HPC Consortium für Kanada und RIKEN CCS für Japan. Promovierende und Postdocs, die Hochleistungsrechnen für ihre Forschung einsetzen und an einer wissenschaftlichen Einrichtung in Europa, den USA, Kanada oder Japan tätig sind, können sich bewerben. Von den insgesamt bis zu 80 Plätzen können bis zu 30 an Bewerber/-innen aus Europa vergeben werden. Die Auswahl erfolgt durch ein über die Partnerorganisationen hinweg einheitlich gestaltetes Review-Verfahren. Das Programm der Summer School behandelt einerseits wichtige Herausforderungen in verschiedenen wissenschaftlichen Disziplinen und andererseits State-of-the-Art Programmier- und Visualisierungstechniken sowie Performance-Analysen. Mentoring und Poster-Sessions werden ebenso zur Talent- und Karriereförderung beitragen, wie die Möglichkeit zu fachlichem, interdisziplinärem und multikontinentalem Informationsaustausch. Für Studierende ist die Teilnahme einschließlich der Unterkunft und Verpflegung kostenfrei. Flugkosten werden ebenfalls zu einem großen Teil erstattet. Weitere Informationen: www.ihpcss.org .

Project Posters auf der ISC 2019

Wie in den vergangenen Jahren wird auf der Internationalen Supercomputing High-Performance-Konferenz 2019 eine Projektposter-Session stattfinden. Die Session soll den Austausch zwischen laufenden nationalen und internationalen HPC-Projekten fördern sowie neue Projektideen vorstellen. Die Projektposter können bis zum 6. Februar 2019 über das Linklings-Portal (https://ssl.linklings.net/conferences/isc_hpc/ ) eingereicht werden. Weitere Informationen: https://www.isc-hpc.com/project-posters-2019.html

FAU-Team in der Student Cluster Competition der SC18

Erfolgreich kehrte das Team von sechs Bachelor-Studierenden der Friedrich-Alexander-Universität (FAU) Erlangen-Nürnberg von der SC18 in Dallas, Texas, zurück. Als einzige deutsche Repräsentanten hatte sich das vom GCS gesponserte Team deFAUlt, neben 14 internationalen Vertretungen, für den Studentencluster-Wettbewerb (Student Cluster Competition/SCC) qualifiziert, wo es in den heiß umkämpften Benchmark-Leistungstests jeweils Podiumsplätze ergatterte: In der Kategorie High-Performance Linpack (HPL) Test hatten die Studierenden aus Franken ihrem selbstkonfigurierten Clustersystem mit 47,9 TeraFlop/s die zweitbeste Leistung entlocken können, im High-Performance Conjugate Gradients (HPCG) Benchmark kam das Team auf Platz drei. Die SCC-Gesamtwertung schloss das deFAUlt-Team mit einem respektablen fünften Rang ab. Als Gesamtsieger ging die Mannschaft der Tsinghua University, China, hervor. Weitere Informationen: http://www.gauss-centre.eu/default-scc