10. HPC-Statuskonferenz der Gauß-Allianz
Virtuelle HPC-Statuskonferenz am 1. Oktober 2020

Go to first section
1. Oktober 2020
Konferenz
Konferenzprogramm
Die HPC-Statuskonferenz der Gauß-Allianz bietet Wissenschaftlerinnen und Wissenschaftlern eine Plattform zum interdisziplinären Austausch zu aktuellen Forschungsaktivitäten und Fragestellungen im Bereich des Hoch- und Höchstleistungsrechnens in Deutschland (HPC). Der Fokus dieser Veranstaltungsreihe liegt dabei im themenübergreifenden Austausch der verschiedenen Disziplinen und der Netzwerkbildung. Erstmalig in der zehnjährigen Historie der Konferenzserie werden die Vortragenden am 1. Oktober 2020 ihre aktuellen und zukünftigen Aktivitäten aus den Bereichen der Maschinen, Methoden und Anwendungen in einer virtuellen Konferenz präsentieren.
Registrierung
Die Teilnahme an der 10. HPC-Statuskonferenz ist kostenfrei. Die Vorträge werden per Stream übertragen.

Dafür wird die Software Pexip des DFN-Vereins genutzt. Es ist nicht erforderlich einen Clienten zu installieren. Im Stream steht ein Chat-Kanal zur Verfügung, in dem Sie Ihre Fragen und Anmerkungen stellen können, und die am Ende des Vortrags durch den Moderator an die Referentin bzw. den Referenten gestellt werden.

Fragen aller Art können Sie per E-Mail an service@gauss-allianz.de stellen.

Link zum Stream: https://www.conf.dfn.de/stream/nr57rxkjuqy65/

Hinweis zum Datenschutz: Das Mitschneiden des Streams ist nicht gestattet.
Programm
Datum: Donnerstag, 1. Oktober 2020, von 10:00 bis 16:00 Uhr

10:00
30'
Anmerkungen zum HPC - aka Ein Kessel Buntes
Prof. Dr. Hans-Joachim Bungartz
TU München
Virtuell
10:30
20'
HPE Apollo 9000 Hawk: Neuer Rechner – Neue Methoden – neue Anwendungen
Prof. Dr. Michael M. Resch
Höchstleistungsrechenzentrum Stuttgart (HLRS)
Virtuell
10:50
20'
Future Computing am LRZ
Dr. Josef Weidendorfer
Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ)
Virtuell
Beschreibung
Mit Blick auf die Herausforderungen neuester Hardwaretechnologien hat das LRZ vor kurzem eine neue Gruppe "Future Computing" ins Leben gerufen, welche sich u.a. mit der Evaluierung modernster Rechnerhardware und deren Energieeffizienz beschäftiigt. Damit sollen Empfehlungen für zukünftige Anschaffungen von Hochleistungsrechnern für HPC und KI erarbeitet werden, die helfen, LRZ-Nutzern auch weiterhin bestmögliche Leistung bei standardisierten Programmiermodellen anbieten zu können. In diesem Vortrag werden Ziele und ersten Schritte präsentiert, mit Fokus auf den Aufbau der Testumgebung "BEAST".
11:10
20'
Zwei Chiptechnologien – ein Hochleistungssystem - HoreKa@KIT
Dr. Jennifer Buchmüller
Virtuell
11:30
20'
HPC und Daten: Nutzungskonzepte und Einsichten
Virtuell
Beschreibung
Das ZIH der TU Dresden verfolgt seit vielen Jahren den Schwerpunkt des datenintensiven Hochleistungsrechnens, seit 2014 zusammen mit dem nationale Kompetenzzentrum für Big Data ScaDS Dresden/Leipzig bzw. seit 2019 ScaDS.AI (Center for Scalable Data Analytics and Artificial Intelligence) Dresden/Leipzig. Der Vortrag zeigt, wie sich dies in der Hardware-Ausstattung wiederspiegelt und wie Speziallösungen für besonders datenintensive Aufgaben deren Leistungsfähigkeit verbessern. Die Präsentation versucht sowohl einen Überblick über Schwerpunktthemen und Anwendungsszenarien für interessierte Zuhörer/innen zu bieten als auch das eine oder andere Detail für das Fachpublikum einzuschließen.​
11:50
20'
Storage-Monitoring und -Optimierung (nicht nur) für DL-Anwendungen
Virtuell
Beschreibung
Durch neue Benutzergruppen insbesondere aus den datengetriebenen Wissenschaften haben sich die Nutzungsmuster und damit die Anforderungen an die Speichersysteme im HPC Bereich verändert. Benutzerfreundliche Werkzeuge zur Überwachung der Speichersysteme und der Benutzerjobs erlauben, diese Veränderungen besser einzuschätzen, und helfen dabei, die Systeme optimal zu betreiben. So lassen sich Systemanforderungen für Neubeschaffungen genauer spezifizieren und bestehende Systeme für neue Anwendungen optimieren. Neben Werkzeugen, die bei der GWDG im Einsatz sind, werfen wir auch einen Blick auf Speichersysteme, die abseits der POSIX-IO Semantik liegen und dadurch eine extreme Parallelität und Skalierbarkeit bieten, die mit den Exa-Scale Systemen der nächsten Generation weiter an Bedeutung gewinnen werden.
12:10
20'
Nutzung von Ad-hoc Dateisystemen für das Machine Learning
Marc-André Vef
Virtuell
Beschreibung
Für das Training von Modellen im Bereich des Machine Learning werden immer größere Datenmengen verarbeitet. Zwar steigt die Geschwindigkeit von speziell auf das Deep Learning ausgelegter Hardware stetig an, dennoch gibt es vor allem beim verteilten Training Probleme, die große Menge an Daten effizient zu transportieren. Meist greifen die Lerner auf zufällige Samples zu, welche in Supercomputern typischerweise in parallelen Speichersystemen gelagert sind. Da diese nur über eine begrenzte Bandbreite verfügen und das Warten auf neue Daten vermieden bzw. verkürzt werden soll, ist es in vielen Fällen nötig, das Speichersystem durch maßgeschneiderte Lösungen, wie einen Peer-to-Peer Transport zwischen den Rechenknoten, zu entlasten. Sogenannte Ad hoc Dateisysteme, welche flexibel für einzelne Jobs im Supercomputer gestartet werden können, sind in der Lage, die vielen maßgeschneiderten Ansätze auf grundlegende Art und Weise abzulösen. Das I/O Problem wird somit vom maschinellen Lernen abgekapselt, und ohne Modifikationen an Machine-Learning Frameworks oder dem zugrundeliegendem System angegangen. Wir zeigen dies am Beispiel des am ZDV der Johannes Gutenberg-Universität Mainz entwickelten Ad hoc Dateisystems GekkoFS.
12:30
60' Pause
13:30
30'
Transforming Science in the 21st Century: The US HPC Landscape
Ph.D. Manish Parashar
Rutgers University
Virtuell
14:00
20'
Neuigkeiten in parallelen Programmiermodellen: was ist noch vermittelbar?
Dr. Christian Terboven & Julian Miller
IT Center, RWTH Aachen
Virtuell
Beschreibung
Die RWTH ist Mitglied in den Standardisierungsgremien von OpenMP und MPI. Beide Programmiermodelle haben in den letzten Jahren viele Neuerungen eingeführt um die Programmierung moderner HPC-Systeme zu ermöglichen. In diesem Vortrag stellen wir kurz die aktuellsten Neuerungen vor um dann zu diskutieren, wie diese in der studentischen Ausbildung vermittelt werden können.
14:20
20'
(Legacy) Anwendungen auf künftigen Rechnerarchitekturen
Dr. Thomas Steinke
Virtuell
Beschreibung
Seit vielen Jahren werden am ZIB innovative Hardware- und Software-Technologien evaluiert. Unsere Arbeiten und Erkenntnisse sollen Code-Entwickler und Nutzer von HPC-Systemen dabei unterstützen, in ihren Anwendungen das Leistungspotential von HPC-Architekturen der nächsten Generation abzurufen. Damit verbunden ist für uns als Anbieter von HPC-Ressourcen das Interesse, Möglichkeiten zur Steigerung der Energieeffizienz zu nutzen. Im Vortrag wird ein Überblick über jüngste und geplante Arbeiten assoziierter Projekte gegeben und dabei insbesondere auf die Herausforderungen bei der Weiterentwicklung von Legacy-Anwendungen eingegangen.
14:40
20'
Tarantella - Framework für verteiltes Deep Learning
Dr. Peter Labus
Fraunhofer ITWM
Virtuell
Beschreibung
HPC spielt heute bereits eine entscheidene Rolle in der Entwicklung neuer Deep-Learning-Methoden und wird in Zukunft dieses Feld noch maßgeblicher beeinflußen. In diesem Talk werde ich einen Überblick über die existierenden Strategien der Verteilung neuronaler Netze auf HPC-Clustern geben. Dabei wird der Fokus besonders auf Fragen der Implementierung dieser Strategien mithilfe von GASPI in unser verteiltes Deep-Learning-Framework Tarantella liegen.
15:00
20'
HPC und Data Analytics an der MPCDF
Virtuell
15:20
20'
Approximate Computing für Quantenchemie
Michael Laß
Virtuell
Beschreibung
Elektronenstrukturberechnungen mittels Dichtefunktionaltheorie nehmen einen signifikanten Anteil der weltweit zur Verfügung stehenden HPC Ressourcen in Anspruch. Um diese quantenmechanischen DFT-Berechnungen für komplexe, große Systeme durchführen zu können, werden anstatt konventioneller kubisch-skalierender Methoden sogenannte linear-skalierende Methoden benötigt.

In dieser Arbeit greifen wir die Idee der Submatrix-Methode auf und wenden sie auf DFT Berechnungen im Softwarepaket CP2K an. Durch unseren Ansatz überführen wir die zugrundeliegenden Operationen auf verteilten, großen, dünnbesetzten Matrizen in Berechnungen auf lokalen, deutlich kleineren und dicht besetzten Matrizen. Dies erlaubt uns, die Floating-Point Performance moderner CPUs voll auszunutzen sowie dedizierte Hardware-Beschleuniger einzusetzen, wo zuvor Speicherbandbreite ein limitierender Faktor war. Wir demonstrieren Funktionalität und Performance unserer Implementierung und untersuchen den Einsatz von GPUs und FPGAs zur Beschleunigung des Verfahrens.
15:40
20'
Zum Verständnis des Performanceverhaltens moderner Prozessoren für dünn besetzte lineare Algebra
Prof. Dr. Gerhard Wellein
Virtuell
Beschreibung
Nach langer Zeit der Intel-Dominanz bei Standardprozessoren für HPC-Systeme, zeigen sich nun bekannte und neue Herausforderer. Mit dem AMD Rome und dem Fujitsu A64FX Prozessor sollen zwei vielversprechende Architekturen vorgestellt und mit der aktuellen Intel Architektur (Cascade Lake) verglichen werden. Die Diskussion ausgewählter Architektureigenschaften konzentriert sich dabei auf eine Performanceanalyse der weit verbreiteten Sparse-Matrix-Vektor-Multiplikation.