Einweihung des HPC-Systems Noctua in Paderborn
Mit der Einweihung eines Cray-CS500-Clusters mit 256 Rechen- und 16 FPGA-Knoten am 21. September hat die Universität Paderborn zügig mit der Realisierung der technischen Komponente ihres Forschungsbaus begonnen. Das initiale Noctua-System liefert die dringend benötigte Rechenleistung, bevor die nächste Ausbaustufe im neuen HPC-Rechenzentrum in Betrieb gehen kann. Der Baubeginn für dieses neue Gebäude, das zusätzlich notwendigen Serverraum schafft und einen hocheffizienten Betrieb sicherstellen wird, ist für das Frühjahr 2019 vorgesehen. Insgesamt wird das Vorhaben mit 25,4 Mio. Euro vom Bund und dem Land NRW gefördert. Noctua bietet pro Knoten je 2 Intel-Skylake-basierte Xeon-Gold-Prozessoren und 192 Gibibyte Arbeitsspeicher. Ein Omni-Path-Netzwerk mit 100 Gigabit/s sorgt für die schnelle Kommunikation untereinander. Das Lustre-File-System nimmt 720 Tebibyte an Daten auf. Herausragend im System sind die 16 Knoten, die je 2 Intel-FPGAs vom Typ Stratix 10 aufnehmen und diese mit einem zusätzlichen 100-Gigabit/s-Netzwerk miteinander verbinden. Dadurch steht wieder eine ausgewogene Rechenleistung und Infrastruktur für die Anwendungs- und Computersystem-Forschung bereit. Weitere Informationen: https://pc2.uni-paderborn.de/hpc-services/available-systems/noctua/
ScaDS Dresden/Leipzig: Start der zweiten Förderphase
Für das BMBF-geförderte Big-Data-Kompetenzzentrum ScaDS Dresden/Leipzig startet im Oktober 2018 die zweite Förderphase. Nach erfolgreicher Evaluierung der Forschungsergebnisse des Zentrums im September 2017 und der Entwicklung eines strategischen Konzeptes für die nächsten drei Jahre kann das Konsortium seinen Ansatz aus intensiver Kooperation der Anwendungsbereiche mit der methodischen Big-Data-Forschung beibehalten und thematisch ausbauen. Schon in der ersten Förderphase konnten an den beiden ScaDS-Standorten gemeinsam mit den Projektpartnern signifikante Fortschritte im Umgang mit großen und komplexen Datenmengen und zahlreiche Anwendungen mit internationaler Sichtbarkeit realisiert werden. Eine wichtige Komponente ist dabei das ScaDS-Servicezentrum, das allen Nutzer/-innen als initiale Anlaufstelle zur Verfügung steht. Die Effizienz und Skalierbarkeit der entwickelten Lösungen wird durch die aktuelle Inbetriebnahme einer neuen Hochleistungsinfrastruktur am ZIH der TU Dresden signifikant verbessert, die besonders für datenintensive Anwendungen und das Maschinelle Lernen mit der Anbindung an schnelle Speichersysteme optimiert ist und eine hervorragende Grundlage für die Entwicklung datenintensiver Anwendungen bildet. Weitere Informationen: https://www.scads.de/de/
Dienstleistungen für europäische Open Science Cloud
Am 1. Januar startete das EU-Projekt EOSC-hub. Die über Horizon 2020 geförderte Kooperation vereint über 100 Partner aus der EGI Federation, EUDAT-CDI, INDIGO-DataCloud und weiteren großen Forschungsinfrastrukturen, die Dienstleistungen, Software und Daten für fortschrittliche, datengetriebene Forschung und Innovation anbieten. Diese Ressourcen werden über das Integrations- und Managementsystem der European Open Science Cloud des Hub angeboten, der als zentrale Anlaufstelle für alle relevanten Akteure fungiert. In Kooperation mit dem Centro Euro-Mediterraneo sui Cambiamenti Climatici (CMCC) bringt das DKRZ den „ENES Climate Analytic Service“ (ECAS) in EOSC-hub ein. Dieser ermöglicht Forschenden Datenanalysen von großen Sets multidimensionaler Daten (z. B. im NetCDF-Datenformat), indem ein PID-basierter, serverseitiger und paralleler Ansatz genutzt wird. Dadurch soll innerhalb der Community des European Network for Earth System Modelling (ENES) ein Paradigmenwechsel mit Fokus auf datenintensive Analyse, Provenienz-Management und serverseitige Ansätze bewirkt werden. Spezielles Ziel dieses Dienstes ist die direkte Kooperation mit den Nutzer/-innen. Die Aktivitäten werden auch die Integration der ENES-Dateninfrastruktur mit EUDAT, EGI und INDIGO unterstützen. Weitere Informationen zum EOSC-hub: https://www.eosc-hub.eu/ und zum Teilprojekt ECAS@DKRZ: https://ecaslab.dkrz.de/home.html (Kontakt für ECAS: Sofiane Bendoukha, DKRZ)
READEX – Ein Meilenstein im energieeffizienten HPC
Im September wurde das EU-Projekt READEX “Run-time Exploitation of Application Dynamism for Energy-efficient Exascale computing” erfolgreich beendet. READEX beschreibt eine Tool-Suite, die Anwender bei der Optimierung der Energieeffizienz ihrer HPC-Anwendungen unterstützt. Mit der READEX-Tool-Suite können je nach Anwendung mit wenig Aufwand häufig bis zu 20% Energie gespart werden. Dafür nutzt READEX das dynamische Verhalten der HPC-Anwendungen, indem es das System an die tatsächlichen Anforderungen der Anwendung anpasst. In einer ersten Phase werden verschiedene Runtime-Situationen (RTS) erkannt und optimale Systemkonfigurationen ermittelt. RTSs mit den gleichen Konfigurationen werden gruppiert und bilden das Tuning- Modell. In der zweiten Phase wird dieses Modell verwendet, um die Systemkonfiguration anzupassen. Zum Konsortium aus Wissenschaft, HPC und Industrie gehörten die Technischen Universitäten Dresden (ZIH), München sowie die Norwegian University of Science and Technology, IT4I, NUIG, Intel und GNS mbH. Die READEX-Tool-Suite ist zum freien Download verfügbar. Weitere Informationen: https://www.readex.eu/
SCC auf Workshops der Supercomputing 2018
Der Workshop „Latest Advances in Scalable Algorithms for Large-Scale Systems“ thematisiert die Ausschöpfung der Rechenleistung künftiger Exaflop-Systeme mit neuartigen Algorithmen. Das SimLab NanoMikro präsentiert einen Ansatz zur Vermeidung von MPI-Collective-Operationen in sogenannten Stencil-Code-Algorithmen durch die Verwendung eines skalierbaren globalen Netzwerks basierend auf lokaler Kommunikation. Die Software NAStJA, die diesen Ansatz implementiert, wird in der Poster-Session des wissenschaftlichen Programms der SC18 vorgestellt. Die Helmholtz-Nachwuchsgruppe FiNE (Fixed-Point Algorithms for Numerics at Exascale) in Kooperation mit dem Helmholtz Analytics Framework (HAF) zeigt den Einsatz maschinellen Lernens zur Erzeugung effizienter Präkonditionierer in der numerischen linearen Algebra. FiNE ist zudem im Workshop IA3 (Irregular Applications: Architectures and Algorithms) vertreten mit einem Beitrag zur Verwendung von modularen Speicherformaten im Page-Rank-Algorithmus. Weitere Informationen: https://nastja.gitlab.io/
Förderstipendium des SCC-Projekts Simulierte Welten
Am 26. Oktober trafen sich die diesjährigen neuen Stipendiatinnen und Stipendiaten des Simulierte-Welten-Förderstipendiums am SCC, um gemeinsam in die neue Saison zu starten. Nachdem die zwölf Oberstufenschüler/-innen den Bewerbungsprozess erfolgreich durchlaufen haben, folgen nun die fachlichen Herausforderungen: Insgesamt sieben Themen aus verschiedenen Bereichen wie Klimaforschung, Teilchenphysik oder Medizintechnik warten darauf, vor dem Hintergrund der mathematischen Modellierung und mithilfe von HPC-Simulationen erforscht zu werden. Jeder der Stipendiatinnen und Stipendiaten wird sich ein Jahr lang mit Unterstützung durch die wissenschaftlichen Mitarbeiter/-innen des SCC einer Problemstellung widmen. Weitere Informationen: http://www.scc.kit.edu/forschung/CAMMP.php
GridKa School 2018: Computing and Science Fair
Vom 27. bis 31. August fand die 16. GridKa School in Karlsruhe statt, die als eine der bekanntesten Sommerschulen Europas zum Thema Scientific Computing den Teilnehmenden ein umfangreiches Programm aus fachlichen Vorträgen und Hands-On-Tutorials anbietet. Die Tutorials werden in unterschiedlichen Schwierigkeitsgraden angeboten und verteilen sich auf unterschiedliche thematische Tracks. Die GridKa School bietet den Teilnehmer/-innen aus den Bereichen Hochenergiephysik, Klimawissenschaft und Informatik neben der reinen Wissensvermittlung eine Plattform zum interdisziplinären Austausch über aktuelle Technologien, Trends, Tools sowie Programmierparadigmen. Highlights in diesem Jahr waren der Vortrag von Dr. Georg Hager zum Thema „Thirteen modern ways to fool the masses with performance results on parallel computers“ sowie das breite Spektrum an Workshops: von der Einführung in High Performance Programming, über Grundlagen zu Paralleler Programmierung, Machine Learning, Profiling für Performance bis hin zu Quantum Computing. Informationen zur Planung der GridKa School 2019 sowie Einreichungen (bitte bis zum 31. Januar 2019): https://indico.scc.kit.edu/event/460/ Weitere Informationen: http://gridka-school.scc.kit.edu/2018/
Neues vom ZKI-Arbeitskreis Supercomputing
Die diesjährige Herbsttagung des ZKI-Arbeitskreises Supercomputing fand am 25. und 26. September im Anschluss an das bwHPC-Symposium in Freiburg statt. Das Spektrum der Beiträge reichte von Erfahrungsberichten aus den Mitgliedseinrichtungen, unter anderem zur Vektorisierung mit unterschiedlichen Compilern, bis zu den Software-Eigenentwicklungen myJAM 3 für Monitoring und Accounting sowie ClusterCockpit für Job-spezifisches Performance-Monitoring. Zum Tagungsschwerpunkt Benchmarks war ein Vertreter des SPEC-Konsortiums eingeladen worden. Die Veranstaltung schloss mit einem Vortrag von Professor Lars Pastewka von der Uni Freiburg über Supercomputing in den Materialwissenschaften und mit einer Führung im gastgebenden Rechenzentrum. Die Frühjahrstagung im März 2019 soll sich unter anderem mit Container- und Virtualisierungslösungen, datenintensivem Rechnen und Einbindung von entfernten Datenquellen in HPC-Jobs sowie kommerzieller Standard-Software und OpenSource-Alternativen beschäftigen. Weitere Informationen: https://zki2.rz.tu-ilmenau.de/arbeitskreise/supercomputing/