Gauß-Allianz-Zentren auf der SC17 in Denver
Die 30. Supercomputing Conference (SC17) findet in diesem Jahr vom 12. bis 17. November in Denver, Colorado statt. Als die größte und wichtigste Veranstaltung im Bereich High Performance Computing (HPC) bietet die SC jährlich ein umfangreiches Programm zu den neuesten Technologien, Trends und Innovationen sowie jede Menge Austauschmöglichkeiten zu Schlüsselfragen und den neuesten Entwicklungen für die Bereiche HPC, Networking, Speicherung und Analyse sowie Big Data. Insbesondere das zugehörige Tutorial-Programm ist ein wichtiges Highlight für die HPC-Community. Auch die Gauß-Allianz-Mitglieder nutzen die SC17, um sich zu informieren und vorzustellen, und reisen mit einem breiten Portfolio – von Softwareentwicklung, paralleler Programmierung, Laufzeitunterstützung und Fehleranalyse über Rechnerarchitektur, Cluster und verteiltes Computing bis hin zu eingebetteten Systemen – in Denver an. • Das DKRZ präsentiert auf seinem Stand seine Infrastruktur sowie seine Services für modellbasierte Klimasimulationen. Ein Monitor zeigt aktuelle Visualisierungen, darunter mögliche zukünftige Änderungen von Temperatur und Niederschlag, Landnutzung, in der atmosphärischen Zirkulation oder von Meeresströmungen. An einem interaktiven Touch-Tisch kann erkundet werden, wie sich das Klima ändern würde, wenn sich die Erde anders herum drehen würde. • Die drei GCS-Zentren HLRS, JSC und LRZ werden im technischen Konferenzprogramm in Tutorials, BoFs und Workshops mitwirken und mit Messeständen vertreten sein. Der Schwerpunkt des HLRS liegt auf immersiver paralleler Visualisierung bspw. in Maschinenbau, Stadtplanung sowie Architektur und Bauwesen. Das LRZ zeigt Komponenten seines neuen CoolMUC-3-Systems sowie eine Virtual Reality (VR) Demo, die die Verbindung zwischen HPC und VR veranschaulicht. Im Mittelpunkt des JSC-Auftritts steht das Konzept Modulares Supercomputing und die Vorstellung des neuen JURECA-Booster-Moduls. Der neu gestaltete Messestand präsentiert Aktivitäten der Sicherheitsforschung mit den Schwerpunkten Fußgängerdynamik, Verkehr und Brandschutz, die Beteiligung an der Infrastruktur für das Human-Brain-Projekt sowie die Kooperation mit der RWTH Aachen in der Jülich Aachen Research Alliance (JARA). Außerdem werden Ergebnisse wissenschaftlicher Simulationen und im JSC entwickelte HPC-Softwarewerkzeuge vorgestellt. Mit Dr. Bernd Mohr vom JSC ist zum ersten Mal ein Europäer Vorsitzender der SC. • An der diesjährigen Student Cluster Competition nimmt erstmals ein gemeinsames Team „TUMany SegFAUlts“ aus sechs Studierenden der beiden größten bayerischen Hochschulen TUM und FAU mit einem erfreulich großen Frauenanteil von 50% teil. Das Gauss Centre for Supercomputing (GCS) agiert für das Team als Co-Sponsor. • Das RRZE führt auf dieser SC17 wieder das Ganztags-Tutorial „Node-Level Performance Engineering“ durch. • Das ZIH wird in Vorträgen, Tutorials und Diskussionsrunden sein Knowhow in den Bereichen Softwarewerkzeuge für das HPC, Data Intensive Computing sowie Data Analytics vorstellen. An seinem Messestand präsentiert das ZIH seine methodenwissenschaftlichen Kompetenzen und Ergebnisse in den Bereichen Performance-Analyse, Big Data und Energieeffizienz-Optimierung. Die Verbindung der beiden Forschungsbereiche Hochleistungsrechnen und Data Analytics wird ein Schwerpunkt sein. Weitere Informationen: https://gauss-allianz.de/de/article/sc17 .
Simulationen mit problemangepassten Gittern
Die drastische Vereinfachung der Entwicklung von Simulationssoftware mit problemangepassten geometrischen Strukturen ist das Ziel des neuen, vom BMBF geförderten HPC-Projekts „Domänenspezifische Programmierung und zielplattformbewusste Compiler-Infrastruktur für Algorithmen auf unstrukturierten Gittern“ (HighPerMeshes). Im Projekt werden dafür existierende Programmiersprachen um passende Ausdrucksmöglichkeiten erweitert und Softwareentwicklungswerkzeuge zur effizienten Simulation auf modernsten Hochleistungsrechnern bereitgestellt. Ein spezifisches Augenmerk liegt dabei auf der Nutzung von Many-Cores und FPGAs, die eine hohe Ausführungsgeschwindigkeit mit niedrigem Stromverbrauch kombinieren. Beweisen wird sich das Projektergebnis u. a. an der Vorhersage von Verschleißerscheinungen im menschlichen Kniegelenk, wo Knochen, Knorpel, Muskeln und Bänder miteinander interagieren. Unter der Leitung der Universität Paderborn (PC2) gehören das Fraunhofer-Institut ITWM Kaiserslautern, die FAU Erlangen-Nürnberg sowie das ZIB Berlin zum Projektkonsortium. Zudem unterstützen die Firmen Computer Simulation Technology und Intel als assoziierte Partner das Projekt. Weitere Informationen: www.highpermeshes.info
Helmholtz Analytics Framework
Scientific Big Data Analytics (SBDA) ist ein Instrument moderner Forschung, um wissenschaftliche Probleme höchster Daten- und Rechenkomplexität zu bearbeiten. Dabei werden sehr große Datenvolumina mit Hilfe von High-Performance-Computing und Datenmanagementtechnologien verarbeitet. Das Projekt „Helmholtz Analytics Framework“ (HAF) wird auf der technischen Plattform der Helmholtz Data Federation (HDF) die Entwicklung der Datenwissenschaften in der Helmholtz-Gemeinschaft stärken. Dabei wird eine systematische Entwicklung von Datenanalysetechniken durch Domänenwissenschaftler gemeinsam mit Betreibern der Infrastruktur verfolgt. Dieses geschieht in einer Reihe anspruchsvoller Anwendungsfälle aus fünf wissenschaftlichen Feldern. Der Austausch von Methoden zwischen den Anwendungsfällen ermöglicht Verallgemeinerungen, die dann weiteren Feldern und Nutzern zur Verfügung gestellt werden. Als Projektpartner sind u. a. die GA-Mitglieder DESY, JSC und SCC beteiligt.
Autoparallelisierung für Deep Learning
Mit Deep Learning (DL) hat das maschinelle Lernen in den letzten Jahren einen rasanten Aufschwung genommen. Bild- und Sprachverarbeitung oder Autonomes Fahren stießen damit in neue Dimensionen vor und haben mittlerweile auch Einfluss auf unser Alltagsleben. Auch die Wissenschaft nutzt DL vermehrt zur Datenanalyse. Eine Grundlage von DL ist die Verarbeitung großer Datenmengen, vor allem beim Lernen. Durch die Komplexität der Algorithmen ist eine parallele Verarbeitung jedoch schwierig – der Lernprozess kann deshalb oft Tage oder gar Wochen dauern. Im BMBF-Projekt „High Performance Deep Learning Framework“ (HP-DLF) sollen deshalb ab November 2017 Methoden und ein Framework zur skalierbaren, dynamischen und auf die Hardware angepassten Autoparallelisierung entwickelt werden. Grundlage sind existierende DL-Bibliotheken und das Autoparallelisierungswerkzeug GPI-Space des Fraunhofer ITWM. Weitere Partner des für drei Jahre geförderten Projektes sind das Visual Learning Lab der Universität Heidelberg, das Deutsche Forschungszentrum für Künstliche Intelligenz und das ZIH der TU Dresden.
Analyse von I/O-Mustern auf NEXTGenIO-Systemen
Innerhalb des EU-Projektes „Next Generation I/O for the Exascale“ (NEXTGenIO), das seit Herbst 2015 im Rahmenprogramm Horizon 2020 gefördert wird, entwickelt das Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) Software-Werkzeuge und Methoden zur Analyse von Ein-/Ausgabemustern (I/O) in hierarchischen Speichersystemen. Diese sind integraler Bestandteil der NEXTGenIO-Exascale-System-Architektur, die prototypisch von Fujitsu in einem System implementiert wird. Kernelement dieser Architektur ist die CPU-nahe Anbindung von nichtflüchtigem Hauptspeicher (NVRAM). Dadurch ergeben sich neue Anwendungsszenarien, die im Projekt definiert und evaluiert werden. Das ZIH entwickelt die Werkzeuge Vampir und Score-P, die dazu verwendet werden, vorhandene und zukünftige I/O-Arbeitslasten zu modellieren, zu visualisieren und zu validieren. Hauptaugenmerk liegt dabei auf der Abbildung aller I/O-Schichten, um Engpässe und deren Ursache aufzuzeigen. Weitere Informationen: www.nextgenio.eu/ . Ein erster Einsatz der I/O-Analyse wird in der aktuellen Publikation „High Performance Computing Enabled Simulation of the Food-Water-Energy System: Simulation of Intensively Managed Landscapes“ beschrieben. DOI: 10.1145/3093338.3093381
Deep Learning am LRZ
Deep Learning entwickelt sich in vielen wissenschaftlichen Disziplinen rasant weiter: Die Datengenerierung und -erfassung wird einfacher und die parallele Rechenleistung (insbesondere durch GPUs) immer stärker. In den letzten Monaten konnten Testnutzer auf den Anfang des Jahres am LRZ in Betrieb genommen Systemen (DGX-1 und eine Cloud-basierte VM mit Tesla P100 GPUs) wertvolle Erfahrungen sammeln. Bei einem sehr gut besuchten Workshop im September, den das LRZ in enger Zusammenarbeit mit NVIDIA anbot, wurde das Wissen vertieft und Best Practices besprochen. Sowohl das Knowhow im Bereich Deep Learning als auch die Wissensvermittlung dazu will das LRZ in seinem vom bayerischen Wissenschaftsministerium geförderten Big- Data-Kompetenzzentrum weiter ausbauen.