November 2017

Gauß-Allianz Infobrief - Ausgabe 58

CoolMUC-3 – Neuer Hochleistungsrechner am LRZ

Das LRZ hat seinen neuen Hochleistungsrechner „CoolMUC-3“ basierend auf Intel-Many-Core-Prozessoren in Betrieb genommen. Mit dem je zur Hälfte vom Freistaat Bayern und vom Bund finanzierten CoolMUC-3 wird es möglich, praktisch keine Wärme mehr an die Umgebungsluft des Rechnerraums abzugeben. Die thermische Isolierung der Racks gelang dem Hersteller MEGWARE durch die Implementierung von warmwassergekühlten Netzteilen und Netzkomponenten. 148 Rechenknoten mit Intel Xeon Phi 7210-F-Prozessoren (Knights Landing, KNL) und insgesamt 9.472 Rechenkerne, die über ein Intel Omnipath-Netzwerk mit Fat-Tree-Topologie verbunden sind, liefern eine theoretische Spitzenrechenleistung von knapp 400 Teraflops, von denen im Leistungstest LINPACK 255 Teraflops erreicht werden konnten. Ein weiteres neues Architekturmerkmal ist das eng mit dem Prozessor integrierte MCDRAM, auch als High-Bandwidth Memory bezeichnet. Dadurch kann eine deutlich erhöhte Speicherbandbreite von 450 Gigabytes pro Rechenknoten erreicht werden. CoolMUC-3 eignet sich v.a. für parallele Anwendungen, die etwa durch hybride Programmierung mit MPI und OpenMP den Speicherverbrauch minimieren. Das LRZ verfügt über das notwendige Know-How, um die Nutzerinnen und Nutzer bei Anwendungsoptimierungen zu unterstützen. Weitere Informationen: https://www.lrz.de/services/compute/linux-cluster/

Abkommen über die langfristige Finanzierung des DKRZ

Hamburgs Erster Bürgermeister Olaf Scholz sowie die Präsidenten der Helmholtz-Gemeinschaft, Prof. Wiestler, und der Max-Planck-Gesellschaft, Prof. Stratmann, unterzeichneten am 24. Oktober den Vertrag zur langfristigen Finanzierung des Hochleistungsrechners am DKRZ. Bisher wurde die Finanzierung des neuen Hochleistungsrechners im Fünfjahresrhythmus immer wieder neu ausgehandelt. Mit dem Abkommen verpflichten sich die Vertragspartner, den Hochleistungsrechner am DKRZ kontinuierlich auf dem neuesten Stand der Technik zu halten: Zukünftig beteiligen sich die Helmholtz-Gemeinschaft mit 45 % an der Finanzierung, die Max-Planck-Gesellschaft mit 40 % und die Freie und Hansestadt Hamburg mit 15 %. Auf Grundlage dieses Abkommens werden für den neuen Klimarechner, der im Jahr 2020 in Betrieb genommen werden soll, 45 Millionen Euro bereitgestellt. Weitere Informationen: www.dkrz.de/p/finanzierungsabkommen/

7. HPC-Status-Konferenz der Gauß-Allianz

Am 4./5. Dezember findet die 7. HPC-Status-Konferenz der Gauß-Allianz am Höchstleistungsrechenzentrum Stuttgart (HLRS) statt. Die Veranstaltung bietet eine Plattform zum interdisziplinären Austausch zu aktuellen nationalen Forschungsaktivitäten und Fragestellungen im Hoch- und Höchstleistungsrechnen und fördert die Netzwerkbildung der Communities sowie die Sichtbarkeit des Forschungsschwerpunkts. Eingeladen sind alle Nutzergruppen sowie Interessierte, die Hoch- und Höchstleistungsrechner nutzen bzw. einsetzen wollen. Eine Besonderheit liegt im themenübergreifenden Austausch der verschiedenen Disziplinen. Erstmals werden Projekte unterschiedlicher Förderer (BMBF, DFG, BW-Stiftung) ihre Forschungsgebiete mit aktuellen Ergebnissen präsentieren und zur Diskussion stellen. Im Detail werden Fragestellungen aus den Bereichen anwendungs- und grundlagenorientierten HPC-Software, Grundlagenforschung für Simulationen in Medizin, Material-, Strömungs- und Wasserwissenschaften sowie Performance Engineering wissenschaftlicher Software thematisiert. Weitere Informationen: https://gauss-allianz.de/de/hpc-status-konferenz-2017

Neue NIC-Forschungsgruppen am JSC

Im Sommer dieses Jahres haben am John von Neumann-Institut für Computing (NIC) im Forschungszentrum Jülich zwei Forschungsgruppen ihre Arbeit aufgenommen. Beide sind dem JSC angegliedert. Die Gruppe Computational Biophysical Chemistry unter der Leitung von Prof. Holger Gohlke widmet sich Technologien und Anwendungen aus den Bereichen strukturelle Bioinformatik, computergestützte Biologie und computergestützte Biophysik und hat zum Ziel, Struktur, Dynamik und Funktion von Biomolekülen und Supramolekülen zu erforschen. Die zweite Gruppe Computational Structural Biology, unter der Leitung von Dr. Alexander Schug, wird die wachsenden Fähigkeiten von HPC nutzen, um z. B. neue Einblicke in die biomolekulare Struktur und Dynamik bei atomarer Auflösung zu erhalten sowie Wachstum und Differenzierung von Nervenzellen zu verstehen. Als gemeinsame Einrichtung der drei Helmholtzzentren JSC, DESY und dem GSI Helmholtzzentrum für Schwerionenforschung, stellt das NIC Supercomputer-Rechenzeit für Forschungsprojekte aus Wissenschaft und Industrie auf den Gebieten der Modellierung und Computersimulation bereit. Weitere Informationen: http://www.john-von-neumann-institut.de

Selbstadaption für HPC-Simulationen

Ziel des Forschungsprojekts „Selbstadaption für zeitschrittbasierte Simulationstechniken auf heterogenen HPC-Systemen“ (SeASiTe) ist es, einen prototypischen Werkzeugkasten zu entwickeln und bereit zu stellen, mit dessen Hilfe Programmierer/-innen ihre Anwendung mit effizienten Selbstadaptionstechniken ausstatten können. Der Projektansatz berücksichtigt sowohl Systemparameter, wie Thread-Anzahl und Frequenz bei DVFS-Prozessoren (Dynamic Voltage and Frequency Scaling), als auch mögliche Programmtransformationen und relevante Programmparameter. Die Optimierung der Programmausführung für mehrere nicht-funktionale Ziele, wie Laufzeit und Energieverbrauch, soll auf einer Performance-Modellierung zur Eingrenzung des Suchraums aufbauen. An dem vom BMBF für drei Jahre geförderten Projekt sind die Universitäten Bayreuth, Chemnitz und Erlangen-Nürnberg sowie das HPC-Unternehmen MEGWARE beteiligt. Weitere Informationen: www.ai2.uni-bayreuth.de/research/projects/seasite/

Selbstadaption und Partikel im Supercomputing

Im aktuellen BMBF-Projekt „Task-basierte Lastverteilung und Auto-Tuning in der Partikelsimulation” (TaLPas) wird Software für Partikelsimulationen entwickelt, die sich an jeden einzelnen Prozessor automatisch anpasst und somit dessen Rechenleistung optimal nutzt. Da viele Problemstellungen, wie Rare Event Sampling oder Parameteridentifikation, die Ausführung einer Vielzahl voneinander abhängiger Simulationen erfordern, wird zudem untersucht, inwiefern Simulationsabläufe samt interner Abhängigkeiten effizient auf vorgegebene Supercomputer-Ressourcen übertragen werden können. Um auf Hardwarefehler, wie ausfallende Prozessoren reagieren zu können, soll der gesamte selbstadaptierende Simulationsmechanismus um Fehlertoleranzansätze ergänzt und auf den Höchstleistungsrechnern SuperMUC und Hazel Hen in Garching und Stuttgart evaluiert werden. Die Projektkoordination verantworten die Universität Hamburg und die TUM, weitere Partner sind das HLRS, die Universitäten Stuttgart und Paderborn sowie die TU Darmstadt und die TU Kaiserslautern. Weitere Informationen: www.talpas.de

20. HLRS Results & Review Workshop

Zu einem Jubiläums-Workshop trafen sich Anfang Oktober Wissenschaftler/-innen aus ganz Deutschland am HLRS. Auf dem 20. „HLRS Results & Review Workshop“ stellten Nutzer/-innen ihre auf dem HLRS-Höchstleistungsrechner Hazel Hen durchgeführten computergestützten Forschungsprojekte und deren Ergebnisse vor. Die Projekte repräsentieren die ganze Bandbreite der Forschung: von Ingenieur-, Material- und Lebenswissenschaften über Wetter-, Klima-, Umwelt- und Grundlagenforschung in der Chemie, Physik, Astro- und Festkörperphysik bis zur Informatik. Aus den 21 Vorträgen und 16 Posterpräsentationen wählte der HLRS-Lenkungsausschuss drei besonders beeindruckende Forschungsarbeiten für den HLRS Golden Spike Award aus. Die begehrte Trophäe ging an • Johannes Letzgus, Institut für Aerodynamik und Gasdynamik (IAG) der Universität Stuttgart: Optimization and HPC-Applications of the Flow Solver FLOWer, • Volker Springel, Heidelberger Institut für Theoretische Studien, Zentrum für Astronomie der Universität Heidelberg: Cosmic large-scale structure in the IllustrisTNG simulations und • Thorsten Zirwes, Engler-Bunte-Institut/Lehrstuhl für Verbrennungstechnik und Steinbuch Centre for Computing/Scientific Computing und Simulation am KIT: Automated Code Generation for Maximizing Performance of Detailed Chemistry Calculations in OpenFOAM. Die auf dem Workshop vorgestellten Forschungsergebnisse werden im Tagungsband „High Performance Computing in Science and Engineering ´17“ beim Springer Verlag veröffentlicht. Die Gewinner-Projekte werden zudem in der nächsten Frühjahrsausgabe des GCS-Magazins InSiDE vorgestellt. Weitere Informationen: www.hlrs.de/events/archive/detail-view/2017-10-05-review-ws-20/

ZKI-Arbeitskreis Supercomputing

Seit mehr als 20 Jahren besteht mit dem ZKI-Arbeitskreis Supercomputing ein Zusammenschluss von HPC-Betreibern an Hochschulen, Universitäten und Forschungseinrichtungen in Deutschland, die über eine Mailingliste und regelmäßige Treffen einen intensiven fachlichen Austausch pflegen. Zweimal jährlich, im Frühjahr und im Herbst, finden die Arbeitskreistreffen statt, an denen neben Mitarbeitern von Hochschulen und Forschungseinrichtungen auch einige Firmenvertreter teilnehmen. Gastgeber für das diesjährige Herbsttreffen am 9./10. Oktober war die Friedrich-Schiller-Universität Jena. Themenschwerpunkte der Vorträge und Diskussionen waren Forschungsdaten, Datenschutzprobleme beim HPC, Monitoring-Lösungen und der neue Wettbewerb auf dem Prozessormarkt. Das neu gewählte Sprecherteam des Arbeitskreises besteht aus dem Vorsitzenden Holger Marten (Christian-Albrechts-Universität zu Kiel) und dem Stellvertreter Olaf Schneider (KIT). Weitere Informationen: www.zki.de/arbeitskreise/supercomputing/