HPC rechnet sich ::: Wissens- & Technologietransfer

5. HPC-Status-Konferenz der Gauß-Allianz
Bad-Homburg, 14. - 15. Dez. 2015

Go to first section
Am 14. und 15. Dezember 2015 fand an der Goethe-Universtät Frankfurt am Main die fünfte HPC-Status-Konferenz der Gauß-Allianz statt. Der Veranstaltungsort war das Forschungskolleg Humanwissenschaften in Bad Homburg.

Die Veranstaltung richtete sich an die gesamte Hochleistungsrechnen-Community in Deutschland. Die nationalen Aktivitäten sollten möglichst vollständig präsentiert werden. Die Konferenz fördert die Netzwerkbildung und den Austausch der verschiedenen Disziplinen zum gesamten Themenkontext des Hochleistungsrechnens. Im Mittelpunkt standen die vom BMBF geförderten Forschungsprojekte, die ihren Status und ihre Zwischenergebnisse präsentierten und zur Diskussion stellten.
Vortragsübersicht
Vorstellung der Goethe-Universität Frankfurt
Volker Lindenstruth (Goethe-Universität Frankfurt)
Zusammenfassung
Opening of the 5th HPC Status Conference of the Gauß-Allianz.
Keynote: How to simulate the most catastrophic events in the universe
Luciano Rezzolla (Institute for Theoretical Physics, Frankfurt, Germany)
Zusammenfassung
Einstein's theory of general relativity predicts the existence of compact objects such as black holes and neutron stars, whose properties are the most extreme known and behind some of the most catastrophic events in the universe. I will present the numerical techniques and supercomputing infrastructure that is needed to explore the physics and astrophysics of these objects and predict their manifestations in terms of electromagnetic and gravitational waves.
ELP – Effektive Laufzeitunterstützung für zukünftige Programmierstandards
Christian Terboven (RWTH Aachen University)
Zusammenfassung
Hybride Parallelisierung, also die Kombination von MPI und OpenMP und ggfs. einem weiteren Paradigma zur Programmierung von Beschleunigern bzw. Vektoreinheiten wird zunehmend wichtiger, um moderne Cluster effizient ausnutzen zu können. Im Rahmen von ELP wird unter Zuhilfenahme von Methoden der Compiler- und Laufzeittechnologie eine effektive Laufzeitunterstützung entwickelt, um leistungsfähige Softwarewerkzeuge in den Arbeitsfluss zu integrieren und insgesamt die Komplexität der Entwicklung paralleler Programme zu reduzieren. Ein besonderer Schwerpunkt liegt auf der Unterstützung der aktuellen Standards OpenMP 4.0 und OpenACC, welche die Programmierung von Beschleuniger- bzw. Vektoreinheiten moderner Rechnerarchitekturen unterstützen und standardisieren. In diesem Vortrag präsentieren wir die Beiträge von ELP zur Weiterentwicklung und Verbreitung der beiden Standards sowie zur Korrektheits- und Performanceanalyse hybrid-paralleler Programme mit den Werkzeugen MUST und VAMPIR.
MyThOS – Operating System for Many Threaded Applications
Lutz Schubert (University of Ulm)
Zusammenfassung
Das vom BMBF im Rahmen des 3. HPC Calls geförderte Projekt "Operating System for Many Threaded Applications" (MyThOS), adressiert die Entwicklung eines Betriebssystems, das insbesondere hochskalierbare Prozesse mit vielen, potentiell kurzen und dynamischen Threads effizient unterstützt. Traditionelle, monolithisch aufgebaute Betriebssysteme sind insbesondere für moderne Mehrkernprozessoren ungeeignet, da sie einen enormen Overhead nach sich ziehen. Dies wirkt sich v.a. bei der Erstellung von Threads aus, welches derzeit mehrere 10.000 Rechenzyklen benötigt. Dazu kommen Jitter, gelockte Datenzugriffe etc., die die Performanz weiter beeinträchtigen. Eine neue Betriebssystem-Struktur, die sich den Anforderungen moderner Höchstleistungsrechner und deren Anwendungen stellt, ist deshalb unverzichtbar. Die Projektergebnisse sollen unmittelbar anhand von Anwendungsszenarien aus den Bereichen Molekulardynamik, Strömungssimulation & Elektrodynamik sowie der verteilten Verarbeitung von Multimediadaten validiert werden. Darüber hinaus wird das Betriebssystem insbesondere für die Analyse sehr großer Datenmengen und den Umgang mit hoch-dynamischen Szenarien geeignet sein. Das Verbundprojekt wird von der Universität Ulm koordiniert und bringt mit Wissenschaftlern des HLRS, der BTU Cottbus, und der Universität Siegen sowie dem Alcatel-Lucent Bell Labs die Bereiche Höchstleistungsrechnen und Betriebssysteme mit der Industrie zusammen.
FAST – Dynamisches Scheduling in höchstskalierenden Umgebungen
Prof. André Brinkmann (Johannes Gutenberg-Universität Mainz)
Zusammenfassung
Das Scheduling in HPC-Umgebungen ist bisher statisch, eine einmal getroffene Entscheidung zur Platzierung eines Jobs wird nicht mehr korrigiert. Dynamische Umgebungen mit einer Vielzahl gleichzeitig laufender Jobs unterschiedlicher Größe können jedoch zu einer unglücklichen Zuordnung von Anwendungen zu Knoten führen. Im Rahmen des FAST-Projekts wird ein Scheduling-Framework entwickelt, dass über ein verteiltes Monitoring-System die Qualität des aktuellen Schedules bewerten kann, diese an das Batch-System meldet und es ermöglicht, Jobs auf Anweisung des Batch-Systems transparent zwischen Knoten zu verschieben, um hierdurch dynamisch eine höhere Ausführungseffizienz zu erzielen.
SPPEXA Phase II – Übersichtsvortrag
Prof. Dr. Wolfgang E. Nagel (ZIH, TU Dresden)
SPPEXA Phase II: ADA-FS
N/A
SPPEXA Phase II: AIMES
N/A
SPPEXA Phase II: Exa-DG
N/A
SPPEXA Phase II: MYX
N/A
SkaSim – Skalierbare HPC-Software für molekulare Simulationen in der chemischen Industrie
Dr. Colin Glass (HLRS, University of Stuttgart)
Zusammenfassung
Durch den Einsatz von kraftfeldbasierten Molekulardynamik (MD) Simulationen sind zahlreiche praxisrelevante Probleme in den Ingenieurwissenschaften erstmals der Modellierung und Simulation zugänglich. Auf der Grundlage physikalisch sinnvoller molekularen Wechselwirkungen können technisch relevante Systeme sicher und zuverlässig analysiert werden. Die industrielle Entwicklung neuer Produkte und ressourceneffizienter Verfahren wird sich durch den Einsatz höchstskalierbarer molekularer Simulationen grundlegend verändern. Dadurch wird es Unternehmen der chemischen Industrie ermöglicht werden, molekulare Simulationen zur Lösung ingenieurwissenschaftlicher Aufgaben effizient anzuwenden und zunehmend Experimente zu ersetzen. Dabei müssen Genauigkeiten wie in hochwertigen realen Experimenten erzielt werden. Voraussetzung für den Erfolg sind hierbei optimierte molekulare Modelle, sowie eine extreme Effizienz der Simulation in jeder Hinsicht, die nur durch eine abgestimmte Entwicklung von Modellen, Simulationsmethoden und Software erreicht werden kann. Dieses Projekt erforscht höchstparallele MD und neue Methoden für die hochparallele mathematische Optimierung. Diese Ansätze fließen in die Verbesserung der molekularen Modelloptimierung und Simulation. Der anwendungsseitige Fokus liegt auf der Vorhersage von Eigenschaften reiner Stoffe, dem realen Gemischverhalten fluider Phasen und der Untersuchung von nanoskaligen Prozessen, sowie auf der Entwicklung darauf basierender neuer Methoden im Bereich fluider Phasengrenzen und Nukleation in reagierenden Systemen. Auf die Lösung dieser Aufgaben ist das interdisziplinäre SkaSim-Konsortium hervorragend vorbereitet: Das Verbundprojekt wird durch das Bundesrechenzentrum HLRS in Stuttgart koordiniert. Beteiligt sind zwei führende Unternehmen der chemischen Industrie BASF und Solvay, die KMUs Eurotechnica und DDBST, international anerkannte Universitätsinstitute der Ingenieurwissenschaften (TU Kaiserslautern und Universität Paderborn) und des wissenschaftlichen Rechnens (TU München), die forschungsstarke Hochschule Bonn-Rhein-Sieg, der Supercomputerhersteller Cray und die beiden Fraunhofer-Institute ITWM und SCAI. Die molekulare Modellierung und Simulation ist eine Schlüsseltechnologie der chemischen Industrie der Zukunft. Das Projekt SkaSim wird es ermöglichen, auf diesem Gebiet eine Spitzenposition zu erreichen und zu halten.
HONK – Industrialisierung von hochauflösender Numerik für komplexe Strömungsvorgänge in hydraulischen Systemen
Fabian Hempert
Zusammenfassung
In der Produktentwicklung spielt die CFD-Simulation eine zentrale Rolle. Mit ihr ist es möglich, Wirkzusammenhänge in und zwischen Komponenten zu erarbeiten und die Funktion des Produktes durch Optimierung zu verbessern. Hierzu wird allerdings ein Software-Werkzeug benötigt, welches in der Lage ist, moderne Hardwarearchitektur effizient zu nutzen und so komplexe Strömungsvorgänge wirklichkeitsgetreu darzustellen.

Das Projektteam arbeitet daran, eine solche Software zur Verfügung zu stellen. Als Basis dient ein Forschungscode, der auf der Discontinuous-Galerkin-Methode aufbaut. Während des Projektes wurde bereits demonstriert, dass eine detaillierte Analyse des Strömungsverhaltens einer realen Gaseinspritzung mit hoher Genauigkeit möglich ist. Der Strömungslöser wurde auf reale und hoch exakte Zustandsgleichungen erweitert und ist somit in der Lage, auch Mehrphasenströmungen mit Kavitation abzubilden. Zur Verbesserung der Bedienbarkeit können nun die erzeugten Daten direkt und parallel visualisiert und analysiert werden.

Im weiteren Projektverlauf steht die weitere Verbesserung der Effizienz auf Höchstleistungsrechnern im Fokus. Diese wird begleitet durch die Entwicklung von in-situ Visualisierungtechniken zur Auswertung der immensen anfallenden Datenmengen. Ein weiteres zentrales Projektziel ist es, die gewonnenen Erkenntnisse der Allgemeinheit zu Gute kommen zu lassen. Daher werden die im Rahmen des Projekts erarbeiteten Software-Werkzeuge als Open Source allgemein zur Verfügung gestellt.
HPC in der Science Alliance Kaiserslautern e.V.
Prof. Nicolas Gauger (TU Kaiserslautern), Franz Pfreundt (Fraunhofer ITWM)
Zusammenfassung
Seit September 2015 ist der Verbund aus dem Regionalen Hochschulrechenzentrum (RHRK) der TU Kaiserslautern und dem Competence Center für HPC des Fraunhofer ITWM unter dem Dach der Science Alliance Kaiserslautern Mitglied der Gauß-Allianz. Im Verbund der beiden Einrichtungen werden mehrere HPC Systeme betrieben, die den Einrichtungen der Fraunhofer Gesellschaft am Standort , den Fachbereichen und SFBs der TU Kaiserslautern sowie den angeschlossenen Forschungsinstituten der Science Alliance zur Verfügung stehen. In unserem Vortrag werden wir kurz unsere Hardwaresysteme und die Aufgabe der beiden Einrichtungen innerhalb des Forschungsstandortes Kaiserslautern beschreiben. Den Schwerpunkt des Vortrages werden aktuelle Forschungsprojektes des Lehrstuhls für Scientific Computing (Prof. N. Gauger) und des CC-HPC des ITWM (Dr. F.-J. Pfreundt) bilden.

Franz-Josef Pfreundt wird über HPC Anwendungen in der Seismik, über ein neues Werkzeug (GPI-Space) zur Auto-Parallelisierung von Anwendungen sowie über erste Erfahrungen mit dem 1500 Node SoC Cluster OCEAN One berichten.

Nicolas Gauger wird über den semi-automatischen HPC-tauglichen Übergang von Simulationssoftware hin zu Optimierungssoftware sprechen und Beispiele aus der optimalen aktiven Strömungskontrolle zeigen.
FEPA – Projektstatus und weitere Schritte
Dr. Jan Eitzinger (FAU Erlangen-Nürnberg - RRZE)
Zusammenfassung
Durch gestiegene Energiekosten haben sich die Randbedingungen für den Betrieb großer HPC- Rechenzentren verschoben. Die Betriebskosten machen einen immer weiter steigenden Anteil der Gesamtkosten über den Lebenszyklus eines Systems aus. Neben der Effizienz der Rechenzentrumsinfrastruktur wurde bisher das Potenzial für weitere Energieeinsparungen in Form der Software, die auf den Systemen läuft, weitgehend außer Acht gelassen. Der Energieverbrauch eines Systems hängt in hohem Maße von den Eigenschaften der ausgeführten Applikationen ab (z. B. Art und Intensität der Nutzung von Instruktionen, Cache und Memory). Im FEPA Projekt werden Werkzeuge und Methoden entwickelt um ein effektives systemweites Performanceprofiling und Monitoring der Applikationsperformance zu ermöglichen. Dadurch wird es Betreibern von HPC-Systemen ermöglicht Applikationen mit einem hohen Optimierungspotential zu erkennen und Beratern und Softwareentwicklern flächendeckend Zugriff auf Profilingdaten zu geben. Dieser Vortrag wird den derzeitigen Status des FEPA Projekts vorstellen und weitere Schritte aufzeigen.
Score-E – Erweiterung von Performance-Analyse-Werkzeugen um Funktionen zur Energiebedarfsanalyse und -optimierung
Kai Diethelm (Gesellschaft für numerische Simulation mbH); Mr. Thomas Vierjahn (RWTH Aachen)
Zusammenfassung
Die im Rahmen früherer BMBF-Projekte entwickelte Score-P-Bibliothek stellt eine leistungsfähige und hoch skalierende Messinfrastruktur zur Verfügung, die von zahlreichen etablierten Werkzeugen zur Performance-Analyse und -Optimierung wie z. B. Vampir, Scalasca, dem Periscope Tuning Framework und TAU gemeinsam genutzt wird. Das Projekt Score-E hat es sich zum Ziel gesetzt, das hierbei entstandene Know-How zu nutzen, um die Werkzeuge auch für energiebezogene Analysen und Optimierungen nutzbar zu machen. Darüber hinaus werden im Projekt weitere Ergänzungen des Systems entwickelt wie beispielsweise fortschrittliche Visualisierungstechniken, die weitergehende, detailliertere Analysen ermöglichen. Von deren Einführung werden auch die klassischen performancebezogenen Anwendungen der Bibliothek profitieren.
SIMOPEK – Project Update
Torsten Wilde (Leibniz Supercomputing Centre)
Zusammenfassung
The steady rise in energy consumption by data centers world wide over the last decade and the future 20MW exascale-challenge in High Performance Computing (HPC) makes saving energy an important consideration for HPC data centers. A move from air-cooled HPC systems to indirect or direct water-cooled systems allowed for the use of chiller-less cold or hot water cooling. However, controlling such systems needs special attention in order to arrive at an optimal compromise of low energy consumption and robust operating conditions. This talk highlights first results from the SIMOPEK project which is developing new concept along with software tools for modeling the data center cooling circuits, collecting data, and simulating and analyzing operating conditions. A first model for the chiller-less cooling loop of the Leibniz Supercomputing Center (LRZ) will be presented and lessons learned will be discussed, demonstrating the possibilities offered by the new concept and tools.
HPC-OpenModelica für Multiskalen-Simulationen technischer Systeme und Anwendung bei der Entwicklung energieeffizienter Arbeitsmaschinen
Marc Hartung (TU Dresden - ZIH)
Zusammenfassung
Ziel des Forschungsvorhabens HPC-OM ist die anwendungsbezogene Entwicklung von innovativen Algorithmen und HPC-Software für die Durchführung von Multiskalen-Maschinensimulationen. Kerngedanke des Projekts ist es, mathematische und syntaktische Kontextinformationen von Teilmodellen auszunutzen, um per Software ein gekoppeltes Gesamtmodell zu erzeugen, das trotz dessen Multiskalen-Phänomenen in hoher paralleler Effizienz simuliert werden kann. Die Entwicklungen werden direkt an der Open-Source-Software OpenModelica vorgenommen. Diese dient unter Anderem dazu technische Systeme, beschrieben mit Hilfe der Modellierungssprache Modelica, in Simulationsprogramme zu übersetzen. Das im Rahmen des Projektes entwickelt OpenModelica-Modul ermöglicht es automatisiert parallele Simulationen zu erstellen. Dies wird ermöglicht, indem die Berechnungsschritte in einen Taskgraphen ueberfuehrt werden. Die Tasks werden mit Hilfe von Scheduling-Algorithmen zur Compile-Zeit last-balanciert verteilt. Zudem wurden Löser zur parallelen Zeitintegration implementiert, um Parallelität auf mehreren Ebenen zu ermöglichen. Die verfolgten Ansätze und erzielten Ergebnisse werden in der Präsentation vorgestellt.