Februar 2018

Gauß-Allianz newsletter - Issue 60

SuperMUC-NG: Next Generation @ LRZ

Am 14. Dezember 2017 wurde in München der Vertrag über die Lieferung des nächsten Supercomputers am LRZ unterzeichnet. Wie der jetzige SuperMUC wird auch SuperMUC-NG mit einer äußerst energieeffizienten Warmwasserkühlung betrieben. SuperMUC-NG wird mit insgesamt mehr als 6.400 Rechenknoten (Lenovo ThinkSystem SD 650 DWC) mit Intel-Xeon-Prozessoren ausgestattet und mit seinen mehr als 300.000 Rechenkernen über eine theoretische Spitzenrechenleistung von 26,7 PetaFlop/s verfügen. Als Hochgeschwindigkeitsverbindung zwischen den Rechenknoten wird die Intel Omni-Path-Architektur in einer Fat-Tree-Topologie eingesetzt. Das System soll mit mehr als 700 Terabyte Hauptspeicher und mehr als 70 Petabyte Plattenspeicher ausgestattet werden. Zur besseren Integration moderner Konzepte zur Verarbeitung und Visualisierung großer Datenmengen wird SuperMUC-NG auch an mitgelieferte Cloud-Komponenten gekoppelt. Im Rahmen eines Strategie- und Finanzierungsplanes für das Gauss Centre for Supercomputing (GCS) wird das System gemeinsam durch Bund und Freistaat Bayern je zur Hälfte finanziert. Weitere Informationen: https://www.lrz.de/presse/ereignisse/2017-12-14_supermuc-ng_vertrag

Mehr Speicher für dekadische Klimaprognosen

Für das vom BMBF geförderte Projekt „Mittelfristige Klimaprognosen II“ (MiKlip II) wurde am DKRZ eine Magnetbandbibliothek zur Speicherung der Ergebnisdaten in Betrieb genommen. Die aus den Projektmitteln finanzierte modulare Magnetbandbibliothek Quantum Scalar i6000 verfügt in der aktuellen Ausbaustufe über 2000 Stellplätze für Magnetbandkassetten sowie über zwei brandneue LTO-8-Magnetbandlaufwerke. Im Vergleich zum Vorgänger LTO-7 hat sich die Kapazität der neuen Magnetbandkassetten auf 12 Terabyte verdoppelt, sodass die Gesamtspeicherkapazität 24 Petabyte beträgt. Bereits seit der ersten Projektphase betreibt das DKRZ eigens für das MiKlip-Projekt beschaffte Rechenknoten und Festplattensysteme. Die Systeme werden zur Aufbereitung der Daten, für den Datenaustausch sowie für die Evaluierung des Vorhersagesystems eingesetzt. Neben der Bereitstellung von Rechen- und Speicherkapazität unterstützt das DKRZ Projekte individuell, wenn deren Bedarf darüber hinausgeht. In der ersten Förderphase hat das Projekt MiKlip ein dekadisches Klimaprognosesystem entwickelt. Aufbauend auf diesen Ergebnissen sollen mit MiKlip II die dekadischen Klimaprognosesysteme etabliert und verbessert werden, sodass sie schließlich für den operationellen Einsatz beim Deutschen Wetterdienst genutzt werden können. Weitere Informationen: https://www.dkrz.de/p/miklip-archiv/ .

Energieeffizienz am DKRZ

Um seiner Umweltverantwortung gerecht zu werden, optimiert das DKRZ seit 2011 aktiv seine Energieeffizienz. So enthielt die Ausschreibung des Hochleistungsrechners Mistral die Vorgabe für einen reduzierten Energieverbrauch. Gegenüber dem Vorgänger-System konnte bei gleichzeitiger Steigerung von Rechenleistung (Faktor 20) und Speicherkapazität (Faktor 10) der jährliche Energieverbrauch um mehr als 1 GWh gesenkt werden. Wesentliche Einsparungen wurden durch den Einsatz einer direkten Hochtemperatur-Flüssigkeitskühlung erzielt, mit der 85% der Wärmeenergie, die die Rechenknoten freisetzen, abgeführt werden. Dafür werden lediglich 2% zusätzliche Energie benötigt, da diese Systeme ganzjährig freie Kühlung und keine zusätzlichen Kältemaschinen nutzen. Ältere Anlagen benötigen meist deutlich mehr als 20%. Der PUE-Wert (Power Utilization Efficiency), der die Energieeffizienz eines Rechenzentrums angibt, lag 2017 für Mistral im Jahresmittel unter 1,19. Das bedeutet, dass weniger als 19% Energie zusätzlich benötigt werden, um die Kühlung der Rechner und die Energieversorgung sicherzustellen. Weitere Energieeinsparungen erzielte das DKRZ durch den Einsatz einer unterbrechungsfreien Stromversorgung (USV), die einen Wirkungsgrad von 98,5% hat. Bei den meisten heute eingesetzten Anlagen liegt dieser Wert lediglich unter 95%. Um die Energieeffizienz noch weiter zu steigern, wird zukünftig die Abwärme des Rechenzentrums zum Beheizen von Laboren im Nachbargebäude genutzt. Dadurch können bis zu 30% der Energie wiederverwendet werden. Weitere Informationen: https://www.dkrz.de/p/energieeffizienz2017/

Projekt ORKA-HPC: FPGA-Nutzung über OpenMP

Das Projekt „OpenMP für rekonfigurierbare heterogene Architekturen“ (ORKA-HPC) wird von November 2017 bis Oktober 2020 durch das BMBF gefördert. Die Rekonfigurierbarkeit von FPGAs ermöglicht sehr effiziente Implementierungen algorithmischer Kernels verschiedener Applikationsklassen. Da die Programmierung von FPGAs sehr zeitaufwendig ist, ist ihre Verwendung im HPC derzeit noch selten. ORKA-HPC beabsichtigt, den Portierungsaufwand auf FPGAs wesentlich zu reduzieren und somit ihr Nutzungspotenzial auszuweiten. Die produktive Nutzung von FPGAs erfolgt dabei über OpenMP. Bisherige OpenMP-Implementierungen konzentrieren sich auf die Umsetzung einzelner Teilaspekte und adressieren insbesondere nicht die für das HPC notwendigen Performance-Aspekte. Im Projekt sind u. a. Forschungsarbeiten vorgesehen, die sich mit der Repräsentation von Programmcodes sowie mit heuristischen Methoden zur Optimierung für inhärent parallele Architekturen beschäftigen. Die Projektkoordination liegt beim RRZK der Universität zu Köln, weitere Partner sind das Fraunhofer SCAI, der Lehrstuhl für Programmiersysteme der Friedrich-Alexander-Universität Erlangen-Nürnberg, das ZIB, sowie die Intel GmbH als assoziierter Partner. Weitere Informationen: http://rrzk.uni-koeln.de/projekte.html#c17671

3. Workshop zu parallelen Programmiermodellen

Am 15. März wird am IT Center der RWTH Aachen University der nächste Workshop der erfolgreichen Workshop-Reihe aus dem DFG-Schwerpunktprogramm Software for Exascale Computing (SPPEXA) ausgerichtet. Das Ziel des SPPEXA-Workshops ist es, die Zusammenarbeit nach den vorangegangenen Workshops in Tokyo und Versailles in den Bereichen parallele Programmiermodelle, HPC-Werkzeuge zur Produktivitätssteigerung und Anwendungen aus dem numerischen Rechnen zu festigen. Diese Themen vereinigen insbesondere die Interessen der drei aktuellen SPPEXA-Projekte MYX, ESSEX-II und DASH, sodass der Workshop von diesen drei Konsortien organisiert wird. Der Workshop gibt Nachwuchswissenschaftlerinnen und -wissenschaftlern die Möglichkeit, ihre Forschungsarbeiten in einem internationalem Umfeld vorzustellen und in einen Erfahrungs- und Wissensaustausch darüber zu treten, wie die Arbeit in den jeweiligen Projekten die HPC-Gemeinschaft auf dem Weg zum Exascale-Computing voranbringt. Die Vorträge fassen dabei den Stand der Technik in den jeweiligen Gebieten zusammen. Die Teilnahme von Wissenschaftler/-innen aus Japan, Frankreich und Deutschland verspricht ein Zusammenkommen verschiedenartiger Lösungsansätze und Ideen. Weitere Informationen: http://www.itc.rwth-aachen.de/WoPPM

9. HiPerCH-Workshop in Gießen

Vom 19. bis 23. März findet der neunte High Performance Computing Hessen Workshop (HiPerCH) in Gießen statt. An diesem Termin werden drei Module angeboten: Im Modul „Scientific Python“ wird die Python-Basics-Einführung aus dem letzten HiPerCH-Workshop fortgesetzt. Im zweiten Modul erläutern Mitarbeiter/-innen des HKHLR die Nutzung des hessenweit verfügbaren Debuggers TotalView. Im dritten Modul haben Nutzer/-innen des Computerprogramms VASP die Möglichkeit, sich über ihre Forschung auszutauschen und an einem VASP-Tutorial von Herrn Dr. Marsmann der Universität Wien teilzunehmen. Die Workshop-Serie HiPerCH ist konzipiert für die Nutzer/-innen der hessischen Hochleistungsrechner sowie für assoziierte Mitglieder der Universitäten Mainz und Kaiserlautern. Sofern Plätze verfügbar sind, stehen diese für weitere Interessierte offen. Weitere Informationen: https://www.hpc-hessen.de/beratung/hiperch-workshops/hiperch-9/

Gaststudentenprogramm am JSC

Im Sommer 2018 richtet das JSC zum 19. Mal sein Gaststudentenprogramm aus. Studierende mit Schwerpunkt Informatik, Mathematik, Natur- oder Ingenieurwissenschaften können hautnah verschiedene Aspekte des wissenschaftlichen Rechnens kennenlernen. Das Programm dauert zehn Wochen und findet vom 6. August bis zum 12. Oktober 2018 in Jülich statt. Die Teilnehmenden werden zusammen mit Wissenschaftlerinnen und Wissenschaftlern an aktuellen Forschungs- und Entwicklungsthemen arbeiten. Die Themenauswahl ist vielfältig und reicht von Molekulardynamik, Simulationen aus der Quantenchemie über Performance-Analyse und -Optimierung bis hin zu Evaluierung und Programmierung neuester HPC-Hardware. Das Bewerbungsformular und weitere Informationen sind online unter http://www.fz-juelich.de/ias/jsc/gsp/ abrufbar.