7. HPC-Status-Konferenz der Gauß-Allianz
Höchstleistungsrechenzentrum Stuttgart (HLRS), Stuttgart, 4. - 5. Dez. 2017

Go to first section

Konferenz

4. - 5. Dezember 2017

HLRS, Stuttgart

Nobelstr. 19, 70569 Stuttgart

Anmeldung

Konferenzsystem des HLRS

Programm

Konferenzprogramm

Am 4. und 5. Dezember 2017 findet am Höchstleistungsrechenzentrum Stuttgart (HLRS) die 7. HPC-Status-Konferenz der Gauß-Allianz statt.

Die HPC-Status-Konferenz bietet Wissenschaftlern und Anwendern eine Plattform zum interdisziplinären Austausch zu aktuellen Forschungsaktivitäten und Fragestellungen im Bereich des Hoch- und Höchstleistungsrechnens in Deutschland (HPC). Eine Besonderheit dieser Veranstaltung liegt im themenübergreifenden Austausch der verschiedenen Disziplinen. Darüber hinaus fördert diese Veranstaltung die Netzwerkbildung der Communities sowie die Sichtbarkeit des deutschen Forschungsschwerpunkts im Bereich des HPC.

Dieses Jahr werden erstmalig in der Historie der HPC-Status-Konferenz aktuelle durch unterschiedliche Förderorganisationen (BMBF, DFG, BW Stiftung) und aus verschiedenen Disziplinen geförderte HPC-Projekte ihre Forschungsgebiete mit aktuellen Ergebnissen präsentieren und zur Diskussion stellen. Wir erwarten Präsentationen von Projekten in den Gebieten
  • Anwendungsorientierte HPC-Software für das Hoch- und Höchstleistungsrechnen in Wissenschaft und Wirtschaft unter anderem für die Software-Verifikation, die Simulation und Optimierung in der Energietechnik, Material- und Geowissenschaften
  • Grundlagenorientierten Forschung für HPC-Software, z. B. Task-basierte Programmieransätze, Metaprogrammierung, Compilerinfrastrukturen u. v. m.
  • Performance Engineering für wissenschaftliche Software
  • Grundlagenforschung für Simulationen unter anderem aus den Bereichen der Medizin, Material-, Strömungs- und Wasserwissenschaften
Die Einladung richtet sich an alle Nutzergruppen sowie Interessierte, die Hoch- und Höchstleistungsrechnen nutzen bzw. einsetzen wollen.

Registrierung

Die Konferenzgebühr beträgt 150 € (inkl. 19 % MwSt.). Diese wird vom lokalen Veranstalter zur Deckung der Unkosten im Rahmen der Ausrichtung der HPC-Status-Konferenz vereinnahmt und verantwortet. Die Gauß-Allianz hat im Zusammenhang mit dieser Veranstaltung keine Einnahmen und auch kein finanzielles Interesse.

Bitte melden Sie sich bis spätestens zum 27. November 2017 (extended deadline) hier im Konferenzsystem an.
 
 
Hotels
Im näheren Umfeld der Konferenz gibt es verschiedene Hotels. Bitte reservieren Sie diese selbstständig:

Relexa Hotel Stuttgart
Entfernung zum Veranstaltungsort: Mit Bus oder Auto ca. 10 Minuten

Römerhof Kulinarium
Entfernung zum Veranstaltungsort: ca. 10 Fußwegminuten
Einzelzimmer ab 73€

Arcona-Hotel
ca. 15 Minuten mit öffentlichen Verkehrsmitteln oder Auto

Weitere Informationen zu Unterkünften in der Umgebung finden Sie hier auf der Webseite des HLRS .

 
 
Programm
Registrierung: Montag, 4. Dezember 2017, 09:30 - 10:30 Uhr

Beginn: Montag, 4. Dezember 2017, 10:30 Uhr
Voraussichtliches Ende: Dienstag, 5. Dezember 2017, 16:00 Uhr

Das aktuelle Programm finden Sie hier.

(Hinweis: Aufgrund der Vielfalt der Projekte finden die Präsentationen der Projekte der Baden-Württemberg Stiftung sowie des DFG-Performance Engineerings in zwei parallelen Sessions am Montag Nachmittag statt.)


09:30
-10:30
Registrierung
Höchstleistungsrechenzentrum Stuttgart, HLRS@GCS
Nobelstr. 19, 70569 Stuttgart
10:30
-11:15
Eröffnung der 7. HPC-Status-Konferenz
Prof. Dr. Michael Resch
Höchstleistungsrechenzentrum Stuttgart, HLRS@GCS
Rühle Saal
11:15
-12:00
Testing the Unexpected: New Frontiers in Automotive Development
Dr. Alexander Thieß
Rühle Saal
13:00
-13:25
SeASiTe – Selbstadaption für zeitschrittbasierte Simulationstechniken auf heterogenen HPC-Systemen
Prof. Dr. Thomas Rauber
Lehrstuhl Angewandte Informatik II , Universität Bayreuth
Rühle Saal
Abstract
Das Forschungsprojekt SeASiTe (Selbstadaption für zeitschrittbasierte Simulationstechniken auf heterogenen HPC-Systemen) stellt sich der Aufgabe, eine systematische Untersuchung von Selbstadaption für zeitschrittbasierte Simulationstechniken auf heterogenen HPC-Systemen durchzuführen. Das Ziel ist der Entwurf und die Bereitstellung des Prototypen eines Werkzeugkastens, mit dessen Hilfe Programmierer ihre Anwendungen mit effizienten Selbstadaptionstechniken ausstatten können. Der Ansatz beinhaltet die Selbstadaption sowohl hinsichtlich relevanter System- und Programmparameter als auch möglicher Programmtransformationen. Die Optimierung der Programmausführung für mehrere nicht-funktionale Ziele (z.B. Laufzeit oder Energieverbrauch) soll auf einer Performance-Modellierung zur Eingrenzung des Suchraums effizienter Programmvarianten aufbauen. Anwendungsunabhängige Methoden und Strategien zur Selbstadaption sollen in einem Autotuning-Navigator gekapselt werden.
13:25
-13:50
Toward space-time parallel simulations of phase-field models
Dr. Robert Speck
Juelich Supercomputing Centre, FZ Juelich, JSC@GCS
parallel-in-time integration, multigrid, phase-field models, brittle-fracture
Abstract
Phase-field models are an important class of mathematical techniques for the description of a multitude of industry-relevant physical and technical processes. The price for the broad applicability and mathematical elegance of this approach is the significant computing cost required for the simulation of phase-field equations at large scales. The significant complexity of the simulation demand the use of modern HPC architectures as well as novel parallelization techniques. In this talk, we will discuss the HPC aspects of the BMBF project “ParaPhase”, focussing on the parallelization strategies for spatial and temporal dimensions. Using multigrid techniques in both space and time, the consortium aims at providing efficient, flexible and high-order solvers for phase-field models. We will show first results for fracture propagation problems and discuss potential extensions and challenges.
13:50
-14:05
Statusbericht des WAVE-Projekts
Dr. Thomas Soddemann, Prof. Dr. Thomas Bohlen, Prof. Dr. Henning Meyerhenke
Rühle Saal
Abstract
Die Vorhersage der Ausbreitung von Wellen spielt in einer Vielzahl von Anwendungen eine wesentliche Rolle, ohne die die Zukunft in einer technologisch-wissenschaftlich orientierten Welt nicht vorstellbar wäre. Das Projekt WAVE entwickelt eine Toolbox mit Implementationen von FD-Verfahren. Im aktuellen Bericht wird der Fokus auf der Weiterentwicklung des quelloffenen Frameworks LAMA in diesem Zusammenhang liegen.
14:35
-15:00
Uncertainty Quantification for Computational Aeroacoustics (Parallel Session: BW-Stift. I)
Dr. Andrea Beck
Rühle Saal
Abstract
The direct numerical computation of acoustic noise (DNC) generated by fluid flows offers a number of advantages compared to a hybrid approach, in which both fields are solved independently. In DNC, hydrodynamics and acoustics are solved in a coupled manner which allows the detection and numerical representation of intricate interactions between both fields, e.g. feedback loops which generate tonal noise. However, this approach intrinsically requires the resolution of the disparate length and time-scales of non-linear turbulent production and the acoustic propagation, making DNC a challenging example of a multiscale problem. High order Discontinuous Galerkin (DG) methods have gained significant attention as baseline schemes for these types of problems. An open-source framework based on a computationally efficient variant of the DG method has been developed by the Numerics Research group and has been successfully applied to DNS and LES of turbulent flows. In particular, this framework has proven its capabilities for DNC in predicting sensitive acoustic feedback loops in complex geometries. However, due to the strong non-linear processes involved, the occurrence of acoustic feedback phenomena are highly sensitive to turbulence, geometry details and the quality of the numerical scheme and its generation is still an active field of research. Therefore, the aim of this project is to develop an uncertainty quantification (UQ) framework based on the existing deterministic flow solver to examine the influence of uncertain factors on sensitive acoustic phenomena. The focus of this talk will be on our research efforts into non-intrusive methods, which will be accompanied by an approach based on intrusive methods in later stages of the project. We will discuss briefly a variant of the Monte Carlo (MC) method and a spectral projection (NISP) approach. In the MC approach, the stochastic quantities are evaluated on nested levels of spatial discretization, and the combination across these levels is used to achieve a more efficient overall method. In the NISP approach, the quantity of interest is approximated by a polynomial chaos expansion, in which the approximation coefficients are evaluated by (discrete) projection. We will discuss the coupling of both methods to the DG framework and show first applications to a 2D open cavity flow problem in which an acoustic feedback mechanism evolves. In our investigations, we will introduce uncertainties into the geometric configuration (cavity aspect ratio) and flow parameters. At the conference, we will discuss the sensitivity of the hydrodynamics and pressure spectra with respect to these uncertain inputs.
15:00
-15:25
DiHu: Towards realistic HPC models of the neuromuscular system (Parallel Session: BW-Stift. I)
Prof. Dr. Dominik Göddeke
Rühle Saal
Abstract
Within the "Digital Human" project we want to contribute to the grand vision of a virtual physiological human model, by developing a realistic model of the neuromuscular system. Due to the high complexity of the neuromuscular system, detailed multiscale computational models are indispensable, e.g. representing the chemo-electro-mechanical behaviour of the system or the global mechanics.

To make progress towards a close-to-realistic model of the neuromuscular system we aim at a holistic revision of the physical, numerical and computational models at all scales. We adapt solution strategies of the discretized models to increase the discretization order and thus, reduce the computational effort. Additionally, we realised parallelization improvements and performed scalability measurements to examine the main bottlenecks.

The work is carried out using OpenCMISS, a code framework for developing computational modelling and visualisation software, particularly targeting bioengineering.
15:25
-15:50
Microorganisms and turbulence: high-performance computing in water quality prediction (Parallel Session: BW-Stift. I)
Michael Stumpf
Institut für Hydromechanik , Karlsruher Institut für Technologie
Rühle Saal
Abstract
The quality of surface water typically depends upon a complex interplay between physical, chemical and biological factors which are far from being completely understood today. Nevertheless, ensuring an acceptable water quality is a crucial requirement in many environmentally-relevant processes. As a consequence, there still exist large uncertainties related to quality predictions based on state-of-the-art mathematical models of surface water bodies. One of the major shortcomings of the common approaches is their strong simplification with respect to turbulent transport phenomena (often treated with a statistical model and empirically-fitted coefficients) as well as to the multiphase nature of the surface water system. Within the project "microorganisms and turbulence", we are aiming to provide detailed numerical data on the spreading of microorganisms in streaming water bodies, which will later be used to improve simpler models for water quality prediction. Therefore, we conduct several direct numerical simulations (DNS) of turbulent open-channel flow, which are coupled with other physical and microbiological processes. This includes the transport and population dynamics of dissolved and deposited bacteria [1], the transport of nutrients and dissolved gases [2], fully-coupled interactions of finite-size particles with the flow [3], as well as inter-particulate collisions [4]. Since all relevant scales are resolved, we are able to shed light on phenomena which are not readily accessible in simpler models, or even experiments, of classical water science, such as the effect of spatio-temporal heterogeneities on the inactivation of bacteria. In this talk, the modeling methods applied and their computational difficulties will be presented and the role of high-performance computing in such a multidisciplinary will be evaluated. Visualizations of some results of such DNS will be shown and discussed with regard to their implication on the fate of microorganisms. [1] M. T. Auer and S. L. Niehaus, “Modeling fecal coliform bacteria—I. Field and laboratory determination of loss kinetics,” Water Research, vol. 27, no. 4, pp. 693–701, Apr. 1993. [2] B. Kubrak, H. Herlina, F. Greve, and J. G. Wissink, “Low-diffusivity scalar transport using a WENO scheme and dual meshing,” Journal of Computational Physics, vol. 240, pp. 158–173, May 2013. [3] M. Uhlmann, “An immersed boundary method with direct forcing for the simulation of particulate flows,” Journal of Computational Physics, vol. 209, no. 2, pp. 448–476, 2005. [4] A. G. Kidanemariam and M. Uhlmann, “Interface-resolved direct numerical simulation of the erosion of a sediment bed sheared by laminar channel flow,” International Journal of Multiphase Flow, vol. 67, pp. 174–188, 2014.
14:35
-15:00
Alexandru Calotoiu
Fachbereich Informatik , TU Darmstadt
Aquarium
Abstract
Our project expands the scope of and merges existing structures for basic HPC programming and tuning support service at Technische Universität Darmstadt, Goethe-Universität Frankfurt, Johannes-Gutenberg-Universität Mainz, and Technische Universität Kaiserslautern. Together, these four sites provide not only a rich pool of challenging HPC applications emerging from first-class science, but also researchers dedicated to the advancement of HPC itself we can capitalize on. Thus, we want to deepen HPC service in areas where scientific expertise at these universities coincides with critical user needs, pushing expertise on GPU performance engineering, model-based scalability analysis, and algorithmic stability and reproducibility into performance engineering practices. The issue of GPU and vectorization performance is crucial, as it is relevant for many HPC architectures. Performance modeling is critical to identify potential performance bottlenecks before resources are expended unnecessarily, an issue that is essential for scaling applications, and, in particular, the efficient transition between tier-3, tier-2, and tier-1 computing centers. Lastly, algorithmic stability and reproducibility are becoming more and more important with respect to the credibility of HPC simulations. In this fashion, we are creating a service organization that offers organizational and operational synergies for HPC users in our two states, exploiting the close spatial proximity of the sites involved. In addition, we are providing a model for merging basic on-site HPC support in a distributed organization with priority support for topics of relevance.
15:00
-15:25
ProPE - Eine prozess-orientierte Performance-Engineering Infrastruktur für wissenschaftliches Rechnen an deutschen HPC-Rechenzentren (Parallel Session: DFG-PE I)
Dr. Jan Eitzinger
RRZE, Friedrich-Alexander-Universität Erlangen-Nürnberg
Aquarium
Abstract
Die Anschaffung und der Betrieb großer HPC Systeme ist kostspielig, daher ist die effiziente Nutzung dieser wichtigen Forschungsinfrastruktur von großer Bedeutung. Diese Aufgabe wird erschwert durch die Komplexität der Systeme und Ihrer Software-Umgebung. Speziell an akademischen Rechenzentren gibt es ein weites Spektrum an Applikationen mit teilweise sehr unterschiedlichen Hardwareanforderungen. Gerade kleine bis mittlere HPC-Zentren haben nur sehr beschränkte Ressourcen für den Support und die Optimierung von Applikationen. Für diese Zentren ist eine effiziente Nutzung der Systeme nur schwer sicherzustellen. Das DFG-Projekt ProPE versucht Komponenten für eine zentrenübergreifende Performance-Engineering (PE) Infrastruktur zu erarbeiten. Dies umfasst einen Prozess zur systematischen Behandlung von PE Fällen und, falls notwendig, deren Delegation innerhalb eines Zusammenschlusses von HPC-Zentren. Des Weiteren beinhaltet es job-spezifisches Performance Monitoring zur Unterstützung der Mitarbeiter um Jobs mit hohem Optimierungspotenzial zu erkennen. Neben einer kurzen Übersicht über das ProPE-Projekt, liegt der Fokus des Vortrags auf Prozess- und Werkzeugaspekten.
15:25
-15:50
Services for Experienced and Starting HPC Tier 3 Users (SES-HPC) (Parallel Session: DFG-PE I)
Jan Steiner
Aquarium
Abstract
While support and training is widely available for users of Tier-1 and Tier-0 computing centers, this is less so for lower-tier centers. The project SES-HPC aims to improve support, both technical and administrative, and training for users of Tier-3 high-performance computing resources, both those who intend to eventually run their applications on higher-tier hardware and those who do not. The project includes the development of a training course program, the support of scientists in developing and optimizing their software as well as running off-the-shelf computing software, administrative help for users who want to switch to higher-tier centers, and the organization of knowledge transfer and documentation. In this talk, the project focus and structure of SES-HPC are introduced.
16:10
-16:35
Acceptance Rate Optimized Monte-Carlo Simulations (Parallel Session: BW-Stift. II)
Dr. Julian Helfferich, Dr. Tobias Neumann, Prof. Dr. Wolfgang Wenzel
Institut für Nanotechnologie , Karlsruher Institut für Technologie
Rühle Saal
Abstract
Monte-Carlo (MC) techniques have a long history with applications in a variety of fields. The most popular approach is the Markov-Chain Monte-Carlo technique where new configurations are proposed based on the current state and proposed step is accepted based on the energy difference. While this technique allows efficient sampling, it often suffers from a very small acceptance rate, driving up the computational cost of this approach. This problem is particularly important in dense systems, such as liquids, glasses and biological systems, where molecular dynamics simulations have become the standard simulation technique. The goal of the MSMEE project in the HPC2 program of BW-Stiftung is to develop a new approach to Monte-Carlo Simulations, aimed at improving the acceptance rate. In this scheme, random steps are weighed based on the local gradient of the potential energy such that beneficial steps will be generated with a higher probability. I will show how this approach can be designed to still fulfill detailed balance while improving the acceptance rate.
16:35
-17:00
HIVES - High precision and high performance verification of automotive software (Parallel Session: BW-Stift. II)
Dr. Tomáš Balyo, Adam Himmelsbach, Prof. Dr. Peter Sanders, Dr. Carsten Sinz, Dr. Alexander Viehl
Lehrstuhl Algorithmik II , Institut für Theoretische Informatik, Karlsruher Institut für Technologie • FZI Forschungszentrum Informatik Forschungsgruppe "Verifikation trifft Algorithmik" , Institut für Theoretische Informatik, Karlsruher Institut für Technologie
Rühle Saal
Abstract
Innovations in the automotive industry are driven to a big part by new functionality implemented in software. Many of these innovations are safety-critical. Traditional testing and simulation approaches are becoming less and less capable to achieve the required safety levels at reasonable cost. Thus new approaches are needed. In the HIVES project, funded by the BW-Stiftung, we examine novel approaches that adapt modern quality assurance techniques -- such as static software analysis or virtual prototypes -- for supercomputers. By using new massively-parallel algorithms, even large software systems can be analyzed with highest precision. In this talk we present goals and preliminary results of the HIVES project.
16:10
-16:35
PeCoH - Raising Awareness for Costs and Performance (Parallel Session: DFG-PE II)
Nathanel Hübbe
Arbeitsbereich Wissenschaftliches Rechnen , Fachbereich Informatik, Universität Hamburg
Aquarium
16:35
-17:00
ProfiT-HPC - Profiling Toolkit für HPC (Parallel Session: DFG-PE II)
Dr. Vanessa End
Aquarium
Abstract
Ziel des DFG-geförderten Projektes ProfiT-HPC ist, das Bewusstsein für Performance-Probleme bei allen Anwendern zu vergrößern. Da sich immer mehr Fachgebiete HPC Ressourcen zu Nutzen machen und diese gleichzeitig immer komplexer werden, machen sich Erfahrungsunterschiede in der effizienten Nutzung der HPC Systeme stark bemerkbar. Um dem entgegen zu wirken, sollen gesammelte Metriken in einem Bericht so aufbereitet werden, dass Nutzer aller Erfahrungsstufen damit einen Ansatzpunkt zum besseren Verständnis und zur Optimierung ihrer Anwendung bekommen. Hierfür wird ein mehrstufiges Modell angestrebt, das in jeder Stufe einen tieferen Einblick in die Anwendung erlaubt, aber hierfür auch ein besseres Verständnis den Nutzers voraussetzt. So können unerfahrene Nutzer Schritt für Schritt an ein Performance Profil herangeführt werden. Der Vortrag gibt einen Überblick über den aktuellen Stand der Arbeiten sowie einen Ausblick auf die bevorstehenden Schritte.
17:20
-17:45
Statusupdate des Mekong-Projekts
JProf. Dr. Holger Fröning, Lorenz Braun, Dr. Simon Gawlok, Prof. Dr. Vincent Heuveline
Computer Engineering Group, Institut für Informatik , Ruprecht-Karls-Universität Heidelberg • Zentrum für Wissenschaftliches Rechnen (IWR) , Ruprecht-Karls-Universität Heidelberg
Rühle Saal
Abstract
In dem Projekt Mekong soll eine Methodik entwickelt werden, welche eine automatische Skalierung von für einzelne GPUs entworfene Codes auf mehrere GPUs und sogar heterogene Systeme ermöglicht, und dadurch Speicher- und Rechenressourcen aggregiert. Unser Ansatz basiert auf drei Schritten: zuerst werden Informationen wie Datenabhängigkeiten und Speicherzugriffsmuster über statische Code-Analyse gesammelt. Diese Informationen führen über Kostenmodelle zu einer geeigneten Partitionierungsstrategie. Über Code-Transformationen wird dann die gewählte Partitionierungsstrategie umgesetzt. In diesem Vortrag stellen wir kurz die wichtigsten Erkenntnisse und Entscheidungen aus den ersten 10 Monaten des Projektes vor.
17:45
-18:10
METACCA: Metaprogramming for Accelerators
Prof. Dr. Sebastian Hack
Fachrichtung Informatik , Universität des Saarlandes
Rühle Saal
Abstract
In METACCA entwickeln wir neue Ansätze zur Erstellung von domänen-spezifischen Bibliotheken und Sprachen mithilfe von partieller Auswertung. Wir berichten über erste Ergebnisse zweier Anwendungen (High-Performance Ray Tracing, Sequence Alignment aus der Bioinformatik), die wir auf CPU Vektorcode und GPUs abgeildet haben.
18:15
-19:15
HLRS Rechnerraum + Cave Führung
20:00
-22:00
Social Event
Vinum im Literaturhaus
Vinum, Breitscheidstraße 4, 70174 Stuttgart
Abstract
Das Social-Event der 7. HPC-Status-Konferenz findet im "Vinum im Literaturhaus" statt.

Anfahrt vom HLRS:
Jeder Bus Richtung Universität, Ausstieg Universität
Jede S-Bahn Richtung Hauptbahnhof, Ausstieg Rotebühlplatz/Stadtmitte
Bus 43 Richtung Killesberg, Ausstieg Berliner Platz oder
U-Bahn U 14, U 2, U 24, Ausstieg Berliner Platz
08:30
-09:15
Welcome to the Jungle!
The challenges of data-driven science at high rates.
Dr. Michael Bussmann
Helmholtz-Zentrum Dresden Rossendorf
09:15
-09:40
MEPHISTO - Metaprogrammierung für heterogene verteilte Systeme
Dr. Andreas Knüpfer, Bert Wesarg
ZIH, TU Dresden
Abstract
Mephisto wird Datencontainer und Algorithmen zur Verfügung stellen, die Anwendungsprogrammierer in die Lage versetzen, das Leistungspotenzial ohne spezielle Kenntnisse in der Parallelprogrammierung auszuschöpfen. Diese Datencontainer verteilen nicht nur automatisch die Daten über den gesamten Hochleistungsrechner, sie erlauben auch eine portable Programmierung von Beschleunigerarchitekturen, wie sie in heterogenen Rechenknoten heutzutage verfügbar sind.
09:40
-10:05
Ein Beitrag zu einem Vorhersagemodell des Ausfallverhaltens von HPC-Systemen im Projekt ENVELOPE
Prof. Dr. Wolfgang Karl
Lehrstuhl für Rechnerarchitektur und Parallelverarbeitung , Institut für Technische Informatik, Karlsruher Institut für Technologie
Rühle Saal
Abstract
Das Projekt ENVELOPE hat sich zum Ziel gesetzt, zum einen die Komplexität heterogener HPC-Systeme vor dem Anwendungsprogrammierer zu verbergen und gleichzeitig eine effiziente Nutzung der zur Verfügung stehenden Ressourcen der Zielplattform zu ermöglichen und zum anderen die Zuverlässigkeit und Ausfallsicherheit zu erhöhen. Hierfür werden Methoden aus dem Bereich der Selbstorganisation erforscht. Einen Beitrag zur Erhöhung der Zuverlässigkeit bildet ein Vorhersagemodell des Ausfallverhaltens von Rechenknoten und Komponenten. Eine Umfrage und Untersuchungen zum Ausfallverhalten von Rechen-Clustern sollen Informationen zum Aufbau einer Wissensbasis als Grundlage für maschinelle Lernverfahren liefern. Die hieraus zu entwickelnden Modelle zielen auf eine proaktive Fehlererkennung auf Knoten und Systemebene.

Der Vortrag stellt die Umfrage vor und zeigt auf, wie die Ergebnisse in die Forschungsarbeiten der einzelnen Teilprojekte einfließen.
10:30
-10:55
ProThOS - taskbasiertes Programmiermodell und Ausführungsumgebung
Abstract
Standard taskbasierte Programmiermodelle gehen davon aus, dass die Anwendung gleich einem Workflow geschrieben und ausgeführt, wobei jeder Task explizit programmiert und gemäß der Abhängigkeiten ausgeführt. Kaum ein Compilermodell erlaubt es, Tasks eigenständig auf Basis der Abhängigkeiten und des workloads zu erstellen, geschweige denn über Taskgrenzen hinweg zu optimieren. Um auch mit kleinen workloads umgehen zu können, muss dabei der Overhead für die Ausführung und den Taskwechsel minimal gehalten werden. ProThOS addressiert diese beiden Probleme durch ein DSL basiertes Sprachmodell, dass die Anwendungen in einen optimierten, system-spezifischen Taskgraphen überführt. Mit Hilfe eines minimalen Betriebssystems können auch Tasks mit kleinem Workload effizient geschedulet und ausgeführt werden.
10:55
-11:20
Chameleon: Eine taskbasierte Programmierumgebung zur Entwicklung reaktiver HPC Anwendungen
Dr. Karl Fürlinger
Lehr - und Forschungseinheit für Kommunikationssysteme und Systemprogrammierung , Institut für Informatik, Ludwig-Maximilians-Universität München
Abstract
Chameleon entwickelt eine taskbasiertes Programmierumgebung für HPC Systeme mit dynamischer Variabilität. Die dynamischen Leistungsdaten, die zur effizienten Ausführung von Tasks nötig sind, werden bei Chameleon von einer Überwachungs- bzw. Introspektionskomponente bereitgestellt. Der Vortrag stellt die Ziele und den aktuellen Stand des Projektes vor.
11:20
-11:45
TaLPas: Task-basierte Lastverteilung und Auto-Tuning in der Partikelsimulation
Dr. Colin Glass
Helmut Schmidt Universität Hamburg
Rühle Saal
Abstract
Im Projekt TaLPas werden innovative, Auto-Tuning-basierte Softwarelösungen für Node-Level optimierte Partikelsimulationen und hochskalierbare, taskbasierte Samplingverfahren entwickelt. Optimale Node-Level Performanz soll durch Auto-Tuning-Methoden gewährleistet werden, welche die Hardware, Datenstrukturen, Algorithmik und damit jeweils zusammenhängende Parametrisierungen berücksichtigen und zur Laufzeit den jeweils optimalen Shared-Memory parallelisierten Simulationskernel identifizieren und ausführen. Hochskalierbares Sampling soll durch ein Tool ermöglicht werden, das taskbasiertes Scheduling und Informationen über verschiedene Samplingverfahren vereint. Unter anderem werden im Vortrag neueste Ergebnisse für OpenMP-basierte Parallelisierung der Partikelsimulation präsentiert.
12:05
-12:30
HighPerMeshes: Domänenspezifische Programmierung und zielplattformbewusste Compiler-Infrastruktur für Algorithmen auf unstrukturierten Gittern
Prof. Dr. Jens Förstner, Dr. Tobias Kenter
Theoretische Elektrotechnik , Universität Paderborn • Paderborn Center for Parallel Computing, Universität Paderborn
Rühle Saal
domänenspezifisch, Compiler, unstrukturierte Gitter, Finite Elemente, heterogene Systeme, FPGA
Abstract
Das Projekt HighPerMeshes ist ein 2017 gestartetes Verbundprojekt innerhalb der BMBF Förderlinie Grundlagenorientierten Forschung für HPC-Software. Ziel des Projektes ist die Entwicklung eines in der Praxis einsetzbaren domänenspezifischen Frameworks zur effizienten, parallelen und skalierenden Implementierung iterativer Algorithmen auf unstrukturierten Gittern. Simulationssoftware im Zeitbereich, die in diese Gruppe fällt (z.B. TD-FEM, TD-DG, Netzwerksimulationen), wird in den letzten Jahren sowohl im wissenschaftlichen als auch im industriellen Umfeld vermehrt eingesetzt und ergänzt bzw. verdrängt vergleichbare Methoden auf regulären Gittern. Mit den Ergebnissen dieses Projekts können existierende, in einer Hochsprache geschriebene Quelltexte vom Programmentwickler mit moderatem Aufwand durch domänenspezifische Bibliotheks- und Sprachelemente ergänzt werden. Die intelligente Compiler-Infrastruktur nutzt dann Domänenwissen, um eine Performanz-optimierte, hochparallelisierte Ausführung auf allen relevanten modernen Hardwarearchitekturen (Multicore, Manycore, GPU, FPGA), auch in heterogenen Systemen, zu ermöglichen. Damit bietet das Projekt für eine Vielzahl an HPC-Entwicklern aus Wissenschaft und Technik einen einfachen und nachhaltigen Pfad zur skalierenden Nutzung der jeweils effizientesten aktuellen und zukünftigen Zielarchitekturen.
12:30
-12:55
HPC²SE: Hardware- and Performance-aware Codegeneration for Computational Science and Engineering
PD Dr. Harald Köstler
Lehrstuhl für Systemsimulation , Friedrich-Alexander-Universität Erlangen-Nürnberg
Rühle Saal
Abstract
Aufgrund der immer komplexeren Simulationsmodelle und der steigenden Heterogenität der Rechnerarchitekturen nimmt die Anzahl der Implementierungsvarianten exponentiell zu. Da diese nicht mehr manuell erzeugt werden können, ist eine Automatisierung der Codeerzeugung notwendig. Dazu werden die Expertendomänen bzgl. Modellierung und Numerik, algorithmischer Umsetzung und Hardwareoptimierung, konzeptionell getrennt. Damit erhalten Experten der drei Bereiche die Möglichkeit auf ihrer jeweiligen Ebene die optimale Lösung zu implementieren, weitgehend unabhängig von den anderen Domänen. Eine eingebettete domänenspezifische Sprache (DSL) erlaubt es danach dem Anwender das Modell und wichtige Aspekte der numerischen Umsetzung abstrakt zu formulieren. Der Compiler erzeugt daraus C++-Code für ein spezielles HPC-Simulationsframework. In unserem Projekt werden hier als Beispiele waLBerla und DUNE verwendet.
14:00
-14:25
Hochparallele Software-Verifikation nebenläufiger Anwendungen in der Automobilindustrie
Dr. Torsten Ehlers
AG Zuverlässige Systeme , Institut für Informatik, Universität Kiel
Rühle Saal
Abstract
Wir berichten von der fortgesetzten Arbeit im BMBF-Projekt HPSV. Ziel dieses Vorhabens ist die Schaffung einer HPC-Softwareplattform für die Verifikation komplexer Sicherheitsanforderungen an eingebettete Systeme. Damit wird einerseits, am Anwendungsbeispiel des Automobilbaus, ein völlig neues Feld des Hoch- und Höchstleistungsrechnens erschlossen und andererseits die effiziente Nutzung heutiger und zukünftiger HPC-Architekturen anhand neuer Ansätze erforscht. Das Vorhaben hat vier Zielrichtungen: - Hochskalierende Softwareverifikation und Nebenläufigkeitsanalyse für eingebettete Anwendungen in der Automobilindustrie, - Entwicklung neuer Skalierungsverfahren für ganzzahldominierte Anwendungen mit irregulärem Kommunikationsmuster, - Kompetenzaufbau zu Manycore und Exascale-Optimierung der genannten Anwendungsklassen, Nebenläufigkeitssimulation und Software-Verifikation, - Übertragung der entwickelten Werkzeuge, Verfahren und Prozesse in generische Dienstleistungen der HPC-Fachberatung für weitere Anwendungen. Durch die Einbeziehung von Industriepartnern auf der HPC- und Anwendungsseite sind wir in der Lage, eine Kompetenzkette von der HPC-Hardware (Intel, Cray) und deren effizienter Programmierung (ZIB) über Algorithmen zur Softwareverifikation (CAU) bis zur Automobilindustrie (MES, SYMTA) aufzubauen. Die entwickelte Plattform wird frei zur Verfügung gestellt und langfristig betreut.
14:25
-14:50
Ultra-Skalierbare Multiphysik-Simulationen für Erstarrungsprozesse in Metallen (SKAMPY)
PD Dr. Harald Köstler
Lehrstuhl für Systemsimulation , Friedrich-Alexander-Universität Erlangen-Nürnberg
Rühle Saal
Abstract
Für die Entwicklung neuer Materialien mit besseren Werkstoffeigenschaften, sowie für die Optimierung von Herstellungs- und Fertigungsprozessen sind moderne und hocheffiziente Simulationstechniken heute unverzichtbar. Sie ersetzen hier zu einem großen Teil die traditionellen zeit- und kostenintensiven Experimente, die sonst für die Materialentwicklung und die Qualitätssteigerung von Werkstoffkomponenten erforderlich sind. Materialsimulationen bilden dabei jedoch eine große Herausforderung für die Grundlagenforschung und für das Höchstleistungsrechnen, da sie eine sehr feine räumliche und zeitliche Auflösung erfordern, um alle relevanten physikalischen Effekte abzubilden. Als Software Basis wird das waLBerla Framework verwendet, welches effiziente, hochparallele Simulationen auf Octree-Gittern erlaubt. Neben der Unterstützung von heterogenen Supercomputer-Architekturen stellt es auch eine Python-Schnittstelle bereit, um die Produktivität bei der Umsetzung neuer physikalischer Modelle zu steigern.
14:50
-15:15
PARADOM: Parallele Algorithmische Differentiation in Open Modelica für energietechnische Simulationen und Optimierungen
Martin Schroschk
ZIH, TU Dresden
Rühle Saal
Modelica, OpenModelica, Algorithmisches Differenzieren, Energietechnik, Simulation, Optimierung
Abstract
Ziele des Projekts PARADOM sind die Bereitstellung moderner mathematischer Methoden, welche exakte Ableitungsinformationen benötigen, sowie die Entwicklung entsprechender paralleler Algorithmen für die effiziente Simulation und Optimierung komplexer energietechnischer Anlagen mit OpenModelica auf HPC-Systemen. Die entwickelten Methoden für die geplanten Erweiterungen von OpenModelica in Verbindung mit der zugehörigen HPC-Parallelisierung werden als quelloffene Pakete für einen breiten Anwenderkreis verfügbar sein. Damit werden die Nutzbarkeit und Attraktivität von HPC-Systemen für technische Simulationen deutlich verbessert.
15:15
-15:40
Algorithmische Erweiterungen und Optimierungen zum Eigenwert-Löser ELPA (ELPA-AEO)
Dr. Hermann Lederer
Abstract
Das Verbundvorhaben ELPA-AEO leistet einen Beitrag dazu, die Effizienz von Supercomputer-Simulationen zu steigern, für die die Lösung des Eigenwertproblems für dichte und Band-strukturierte symmetrische Matrizen zu einem entscheidenden Beitrag wird, wie insbesondere bei der computergestützten Materialforschung. Im Vortrag wird auf die verschiedenen Arbeitsgebiete des Konsortiums eingegangen, die zu Effizienz- und Leistungssteigerungen und erhöhtem Bedienkomfort beim Einsatz der Eigenlöser-Bibliothek ELPA führen, und es werden die Projekt-Fortschritte auf diesen Gebieten dargelegt.
 
 
Anfahrt und Veranstaltungsort
Höchstleistungsrechenzentrum Stuttgart, HLRS
(High Performance Computing Center Stuttgart)
Nobelstr. 19
70569 Stuttgart

Alle Informationen zur Anfahrt und dem Veranstaltungsort finden Sie hier .