September 2015

Gauß-Allianz newsletter - Issue 38

Neuer Supercomputer JURECA am JSC

Am Jülich Supercomputing Centre (JSC) ging im Juli 2015 die erste Phase des neuen Supercomputers JURECA in Betrieb. Das vom russischen Hersteller T-Platforms gelieferte System hat derzeit 260 Rechenknoten mit dual-socket Haswell-Prozessoren, 128 GB Hauptspeicher und verwendet als Verbindungsnetzwerk das brandneue EDR-InfiniBand von Mellanox. JURECA tritt die Nachfolge des beliebten Supercomputers JUROPA an, der nach sechsjährigem Betrieb abgebaut wurde. Um einen reibungslosen Übergang auf den neuen Rechner zu ermöglichen, hat das JSC neun Monate lang ein Testsystem betrieben, auf dem die Nutzer ihre Simulationswerkzeuge für die moderne JURECA-Architektur vorbereiten konnten. JURECA wurde von den Nutzern schnell angenommen und zeigt seit Produktionsbeginn eine gleichbleibend hohe Auslastung. Zurzeit wird das System auf 1.884 Rechenknoten erweitert und zusätzlich mit 150 GPU-Prozessoren bestückt. Nach dem vollständigen Ausbau wird die CPU-Leistung 1,8 PetaFlop/s betragen. Zusätzliche 0,4 PetaFlop/s steuern die GPU-Beschleuniger zu der Gesamtleistung von 2,2 PetaFlop/s bei. Die Rechenzeit auf JURECA wird sowohl an Wissenschaftler des Forschungszentrums Jülich und der RWTH Aachen als auch an Forscher in Deutschland über ein bewährtes Begutachtungsverfahren vergeben. Weitere Informationen: www.fz-juelich.de/ias/jsc/jureca

Erste Ergebnisse für SuperMUC Phase 2

Bevor das Leibniz-Rechenzentrum (LRZ) die Erweiterung des Höchstleistungsrechners SuperMUC in seiner Phase 2 am 29. Juni 2015 offiziell in Betrieb nahm (GA-Info-brief Nr. 37), hatten ausgewählte Nutzergruppen die Möglichkeit, ihre Programme auf allen 86.016 Rechenkernen laufen zu lassen. Insgesamt nutzten 41 Wissenschaftler aus 14 Instituten diese Möglichkeit mit Programmen aus Physik, Molekularer Modellierung und Fluiddynamik. In einem anschließenden Workshop stellten sie ihre Simulationsergebnisse vor. Dabei wurden folgende Rekorde hervorgehoben: Die größte Fast Fourier Transformation der Welt mit mehr als 10.0003 Gitterpunkten wurde mit der Software FLASH, einem astrophysikalischen CFD-Code, berechnet. Die Ergebnisse sind wichtig für das Verständnis von Turbulenzen im interstellaren Medium. Mit der Software GADGET konnte mit 10% des sichtbaren Universums die derzeit größte Simulation der Entwicklung des Universums erreicht werden. Es war möglich, Molekülspektren mit der Simulationssoftware IPHIGENIE um einen Faktor 100 genauer zu berechnen als bisher, und ein seismisches Rekonstruktionsproblem wurde durch „strong scaling“ von 16 Stunden Rechenzeit auf 55 Sekunden beschleunigt. Die Ergebnisse wurden auf der ISC‘15 vorgestellt und in den Proceedings der ISC‘15 und der Euro-Par 2015 publiziert. Auf der ISC‘15 wurde auch die Linpack-Leistung der SuperMUC Phase 2 bekanntgegeben. Mit seinen 2,814 PetaFlop/s liegt er auf Platz 21 der TOP500-Liste, direkt hinter SuperMUC Phase 1 mit 2,897 PetaFlop/s. Dieser schaffte es nach drei Betriebsjahren immer noch auf den stolzen neunten Platz beim neuen HPCG-Benchmark. Weitere Informationen: www.lrz.de

Energieeffizientes Hochleistungsrechnen in Dresden

Die TU Dresden hat mit ihrem neuen PetaFlop-Hochleistungsrechner Taurus Phase II nicht nur einen der 100 schnellsten Computer weltweit (Platz 66 in der aktuellen TOP500-Liste für die CPU-Partition), sondern auch eines der effizientesten Systeme. Die GPU-beschleunigte Partition ist mit 3615 MegaFlop/Watt in der aktuellen Green500-Liste der energieeffizientesten Systeme auf dem neunten Platz. Die rein CPU-basierte, warmwassergekühlte Partition landete mit 1769 MegaFlop/Watt auf Platz 95. Allerdings sind unter den 132 tatsächlich gemessenen und für die Green500 submittierten Systeme lediglich Piz Dora am Schweizer CSCS sowie Rechner mit speziellen Architekturen wie Hardware-Beschleunigern oder BlueGene/Q effizienter als das von Bull/Atos gebaute System der TU Dresden. Nur zwölf dieser Systeme erreichen PetaFlop-Leistung. Dieser Erfolg ist ein Ergebnis der intensiven Bestrebungen des ZIH, die Energieeffizienz großer Rechensysteme und deren Infrastruktur zu verbessern. Weitere Informationen: www.green500.org

READEX: Energieeffizientes Exascale Computing

Mit der wachsenden Nachfrage nach High Performance Computing in Wissenschaft, Forschung und Entwicklung geht ein konstanter Anstieg von Systemgröße und -komplexität einher. Die energieeffiziente Nutzung zukünftiger Exascale-Computer ist dabei eine große Herausforderung. Zwar existieren Parameter für die Anpassung der Hardware und System-Software an Anwendungsanforderungen, ihre manuelle Nutzung ist jedoch sehr aufwändig. Automatisierte Verfahren könnten bereits in der Design-Phase mithilfe optimierter Systemkonfigurationen die dynamischen Wechsel zwischen verschiedenen Anwendungsphasen (z. B. Kommunikationsphasen bzw. unterschiedliche Rechenkerne) ausnutzen, um deren Energieeffizienz zu steigern. Ziel des ab September 2015 für drei Jahre von der EU geförderten Projektes „READEX - Runtime Exploitation of Application Dynamism for Energy-efficient eXascale computing“ ist die Erforschung und Entwicklung skalierbarer, werkzeuggestützter Methoden zur Optimierung der Energieeffizienz und Leistung hochparalleler Anwendungen basierend auf deren dynamischen Laufzeitverhalten. Zum Konsortium europäischer Experten aus Wissenschaft und Industrie gehören die Norges teknisk-naturvitenskapelige universitet in Trondheim, die Technischen Universitäten München und Ostrava, die National University of Ireland in Galway sowie Intel und die Gesellschaft für numerische Simulation mbH. Die Projektleitung liegt beim ZIH der TU Dresden. Weitere Informationen: www.readex.eu

Skalierbare Analyse von Fernerkundungsdaten

Um eine globale Betrachtung von Prozessen der Erdoberfläche zu ermöglichen, entwickelt das vom BMBF geförderte Verbundprojekt „GeoMultiSens - Skalierbare multisensorale Analyse von Geofernerkundungsdaten“ neue, skalierbare Technologien zur Integration und Analyse von Daten verschiedener Fernerkundungsmissionen. Hierzu bündelt GeoMultiSens die Expertisen von drei Forschungsinstituten aus den Disziplinen Informatik und Fernerkundung. Die Fernerkundung des Deutschen GeoForschungsZentrums (GFZ) entwickelt neue Algorithmen für die Integration verschiedener Satellitensysteme. Das Zuse-Institut Berlin (ZIB) baut ein Datenhaltungssystem im Petabyte-Bereich für die parallele Verarbeitung und ausfallresistente Speicherung auf. Für eine schnelle Extraktion von Informationen passen die Fernerkundung und die Informatik der Humboldt-Universität zu Berlin etablierte Fernerkundungsmethoden an eine hochparallele Analyseumgebung an. Die Geoinformatiker des GFZ wiederum entwickeln interaktive Werkzeuge zur Exploration und Bewertung dieser Informationen. Weitere Informationen: www.geomultisens.de

Tools Workshop meets Big Data in Dresden

Am 2. und 3. September richteten das ZIH und das HLRS an der TU Dresden gemeinsam den 9. Parallel Tools Workshop aus, der die Vorstellung der Neuigkeiten und Erweiterungen von Werkzeugen durch ihre Entwickler mit Erfahrungsberichten von Anwendern und Rechenzentrumsbetreibern kombiniert. Als neuen und besonderen Aspekt in der Workshop-Reihe wurde das thematische Spektrum in diesem Jahr um Big-Data-Methoden erweitert, um die Verbindungen zwischen Hochleistungsrechnen und Big Data zu thematisieren und die internationalen Forschungsinitiativen in diesem Bereich aufzugreifen. Aus der speziellen Workshop-Perspektive waren Big-Data-Methoden dabei sowohl als Bestandteil von Software-Werkzeugen von Interesse als auch die Analyse von Big-Data-Anwendungen mit angepassten HPC-Software-Werkzeugen. Als Sprecher waren Vertreter renommierter Arbeitsgruppen auf dem Gebiet der Software-Werkzeuge aus Deutschland, Europa und den USA angereist. Weitere Informationen: https://tools.zih.tu-dresden.de/2015

Schülerkolloquium „Simulierte Welten“ am SCC

Im Wintersemester 2014/2015 hat das SCC im Rahmen des Projekts „Simulierte Welten“ acht Förderstipendien an Schülerinnen und Schüler der Oberstufe zweier Gymnasien in Karlsruhe vergeben. Von Mitarbeitern des SCC individuell betreut, haben die Jugendlichen die Grundlagen der Modellierung von Computersimulationen, des Hochleistungsrechnens und des datenintensiven Rechnens anhand von vier Themen aus der aktuellen computergestützten Forschung kennengelernt und praktisch umgesetzt. Die Themenbereiche umfassten Klimamodellierung, Kollisionsdatenanalyse in der Hochenergiephysik, Aerosolmodellierung und Proteinfaltung. Am Tag der offenen Tür des KIT am 27. Juni präsentierten die Stipendiatinnen und Stipendiaten die Ergebnisse ihrer Projekte in einem öffentlichen Schülerkolloquium. Zum Abschluss erhielten sie Teilnahmeurkunden und eine Führung durch die Rechnerräume des SCC. Das Projekt „Simulierte Welten“ wird vom Ministerium für Wissenschaft, Forschung und Kunst (Baden-Württemberg) gefördert. Weitere Informationen: www.simulierte-welten.de