November 2016

Gauß-Allianz newsletter - Issue 49

Einweihung der 1. Ausbaustufe der AHRP-Cluster

Die Allianz für Hochleistungsrechnen Rheinland-Pfalz (AHRP) koordiniert Aktivitäten der TU Kaiserslautern und der JGU Mainz im Bereich Hochleistungsrechnen und stellt HPC-Kapazitäten nach dem jeweiligen Stand der Technik für die Wissenschaftler/-innen des Landes Rheinland-Pfalz nachhaltig zur Verfügung. Derzeit werden die seit 2012 betriebenen Cluster durch neue Systeme ersetzt. Die ersten Ausbaustufen der Cluster „Elwetritsch II“, Kaiserslautern und „Mogon II“, Mainz werden am 6. Dezember durch den rheinland-pfälzischen Minister für Wissenschaft, Weiterbildung und Kultur, Professor Dr. Konrad Wolf, feierlich eingeweiht. In Kaiserslautern ergänzen seit Januar 144 Rechenknoten von Dell mit 2.122 Kernen die vorhandene Rechenleistung. In Mainz beginnt derzeit der Aufbau von 814 Rechenknoten mit 16.280 Kernen durch die Firma Megware. Gleichzeitig wird durch NEC ein neues Lustre-Dateisystem mit 4,5 Petabytes installiert. Zu den Forschungsgebieten der Nutzer der beiden Cluster zählen u. a. die Kernphysik, die Hochenergiephysik, die Theoretische Chemie, die Strömungsmechanik, die Materialwissenschaften und die Lebenswissenschaften. Seitens der methodenwissenschaftlichen Forschung stehen neben der Visualisierung großer Datenmengen insbesondere Fragen der algorithmischen Stabilität, der Performanz und der Reproduzierbarkeit im Fokus. Weitere Informationen: https://www.ahrp.info/

Startschuss für die Helmholtz Data Federation

Unter Federführung des KIT hat die Helmholtz-Gemeinschaft mit der Realisierung der föderierten Forschungsdateninfrastruktur Helmholtz Data Federation (HDF) begonnen. Der sichere Zusammenschluss und der Ausbau multi-thematischer Datenzentren im Rahmen dieser Föderation ermöglicht es datenintensiven Wissenschafts-Communities, wissenschaftliche Daten zu finden, unter Beibehaltung der Datenhoheit zu teilen, über Disziplingrenzen hinweg zu nutzen und zuverlässig zu archivieren. Die HDF basiert auf den drei Kernelementen innovative Software für das Forschungsdatenmanagement, exzellente Benutzerunterstützung und topaktuelle Speicher- und Analyse-Hardware. Partner in der ersten Phase sind sechs Helmholtz-Zentren aus fünf Forschungsbereichen: AWI (Erde und Umwelt), DESY und GSI (beide Materie), DKFZ (Gesundheit), FZJ und KIT (beide Energie, Schlüsseltechnologien, Materie, Erde und Umwelt). Als Keimzelle für eine wissenschaftsorganisationsübergreifende nationale Forschungsdateninfrastruktur (NFDI) ist die HDF offen für Nutzer im gesamten deutschen Wissenschaftssystem und wird durch internationale Verbindungen kompatibel mit der zukünftigen European Open Science Cloud (EOSC) sein.

Gemeinsame HPC-Strategie der Gauß-Allianz

Die Gauß-Allianz hat im Sommer 2016 ihre strategischen Aufgaben in einem HPC-Konzept verabschiedet. Nach einem sehr guten Überblick über das nationale Hoch- und Höchstleistungsrechnen sowie Entwicklungen in diesem Bereich seit 2006 werden die aktuellen Aufgaben der Gauß-Allianz und die Profillinien der Mitgliederzentren beschrieben. Als Repräsentant aller drei Leistungsebenen adressiert die Strategie der Gauß-Allianz – auch angeregt durch Strukturierungsüberlegungen des Wissenschaftsrates – die in den nächsten Jahren zu erwartenden Herausforderungen. Dabei werden sowohl Förderinstrumente des HPC, die Entwicklung des Bedarfs und der Anforderungen an das HPC als auch technische Entwicklungen beschrieben. Das Ziel aller Entwicklungen ist eine nachhaltig wirkende und balancierte Infrastruktur für die Versorgung der deutschen Wissenschaft mit HPC-Ressourcen. Weitere Informationen: https://gauss-allianz.de/de/ga-hpc-strategie/

HPC-Toolbox zur Simulation von Wellenfeldern

Die Ausbreitung von akustischen Wellen spielt in vielen Bereichen der Natur und Technik eine zentrale Rolle, z. B. in der Medizintechnik, im Lärmschutz, der zerstörungsfreien Materialprüfung oder der Erkundung des Erdinneren. Dabei ist die Simulation der Wellenausbreitung in heterogenen Medien essentiell für die Technologieentwicklung sowie zentraler Bestandteil von Abbildungsverfahren. Die in dem neuen, vom BMBF geförderten Projekt „WAVE - Eine portable HPC-Toolbox zur Simulation und Inversion von Wellenfeldern“ entwickelte Software wird frei verfügbar sein. Die drei wesentlichen Bestandteile dieser Toolbox werden generische numerische Datenstrukturen und Algorithmen, Lastbalancierung sowie 3D-Finite-Differenzen-Wellenfeldsimulatoren auf räumlich variablen Gittern sein. Sie wird die Eigenschaften von aktuellen und künftigen HPC-Architekturen, wie Größe, Heterogenität und hierarchischer Aufbau berücksichtigen. Die Entwicklungen werden in Kooperation zweier Institute am KIT, einem Partner aus der Fraunhofer-Gesellschaft (SCAI) sowie einem industriellen Partner (TEEC) durchgeführt. Weitere Informationen: http://wave-toolbox.org

DFG fördert HPC an Rhein-Main-Universitäten

Simulationssoftware so anzupassen, dass man mit ihr auf HPC-Systemen Fragestellungen erforschen kann, die experimentell wegen zu hohen Gefahren oder Kosten nicht untersucht werden könnten, erfordert höchste Methodenkompetenz. Die Anpassung von Programmen für Hochleistungsrechner im Hinblick auf Effizienz, wird seit 2013 im Hessischen Kompetenzzentrum für Hochleistungsrechnen (HKHLR) sowie in der Allianz für Hochleistungsrechnen Rheinland-Pfalz (AHRP) erfolgreich umgesetzt. Die DFG fördert nun im Rahmen des Programms „Performance Engineering für wissenschaftliche Software“ ein umfangreiches Projekt der Rhein-Main-Universitäten im Verbund mit der TU Kaiserslautern. Mithilfe der auf drei Jahre angelegten DFG-Förderung werden diese Kompetenznetzwerke verstärkt. Sie können so ihre Zusammenarbeit auf Themenfeldern wie Vielkern-Programmierung, Algorithmische Stabilität und Reproduzierbarkeit sowie Leistungsmodellierung zur Skalierbarkeitsanalyse vertiefen. Koordinator des Vorhabens ist der Leiter des Rechenzentrums der TU Darmstadt, Professor Christian Bischof. Weitere Informationen: http://www.rhein-main-universitaeten.uni-mainz.de/372.php

Leistungsbewusstes Hochleistungsrechnen

Das Projekt „PeCoH – Leistungsbewusstes Hochleistungsrechnen“ (Performance Conscious HPC) wird von 2017 bis 2019 von der DFG im Rahmen der Ausschreibung „Performance Engineering für wissenschaftliche Software“ gefördert. Für PeCoH kooperieren die Rechenzentren der Universität Hamburg und der Technischen Universität Hamburg-Harburg sowie das Deutsche Klimarechenzentrum, um als virtueller Verbund ein Hamburg HPC Competence Center (HHCC) aufzubauen. Die Ziele des Projekts sind die Koordination von Aktivitäten der Hamburger Rechenzentren im Bereich Performance Engineering, die Sensibilisierung der Nutzer für das Performance Engineering und die Etablierung von neuen Diensten. Hierfür werden sowohl erprobte Dienste für die Nutzer zur Verfügung gestellt, als auch neue Ansätze entwickelt und evaluiert. Unter anderem umfasst dies die folgenden Aktivitäten: Das Tuning von relevanten Anwendungen; die Integration eines Kostenmodells in den Job-Scheduler; die Entwicklung eines Leistungsmodells sowie eine Aufwandsabschätzung einerseits für die Portierung von Codes auf neuartige Systemarchitekturen und andererseits für den Einsatz von Softwareentwicklungskonzepten und von Werkzeugen. Außerdem soll ein „HPC-Führerschein“ für Nutzer entwickelt werden, welcher durch Online-Lektionen und -Prüfungen erworben werden kann. Dadurch können die Nutzer ihre HPC-Kenntnisse vertiefen und zertifizieren lassen.

Gründung einer Collaborative Data Infrastructure

15 europäische Rechenzentren und Betreiber von Forschungsdatenrepositorien, darunter das Jülich Supercomputing Centre (JSC), das Steinbuch Centre for Computing (SCC) und die Max Planck Computing & Data Facility (MPCDF), haben die EUDAT Collaborative Data Infrastructure (EUDAT CDI) gegründet. Mit dem Ziel, eine nachhaltige Perspektive für das Management von Forschungsdaten in Europa zu bieten, dafür eine zuverlässige Dateninfrastruktur zu etablieren und diese langfristig zu betreiben, legt die EUDAT CDI den Grundstein zur European Open Science Cloud (EOSC). Grundlage der Organisation ist eine partnerschaftliche Vereinbarung, die im Horizon 2020 geförderten EUDAT2020-Projekt entwickelt wurde. Weitere Organisationen haben bereits ihr Interesse zum Beitritt erklärt. Die Infrastruktur umfasst neben generischen und multidisziplinären wissenschaftlichen Rechenzentren auch fachspezifische Zentren, z. B. das DKRZ. Die daten-orientierten Dienste Data Sharing, Data Access, Data Storage, Data Preservation, Data Processing und Data Discovery werden von Wissenschaftlern unterschiedlicher Disziplinen und den Betreibern gemeinsam entworfen und betreut. Auf große multidisziplinäre Forschungseinrichtungen zugeschnittene Dienste gehören ebenso zum Portfolio wie Dienste für kleinere Forschungsgruppen und einzelne Wissenschaftler/-innen. Das JSC betreibt derzeit u. a. die zentrale Nutzeridentifikation und allgemeine Dienste zur Synchronisation und zum Austausch von Daten; SCC und MPCDF betreiben Dienste zur Langzeitspeicherung und Archivierung sowie die Zentren- und Service-Registratur. EUDAT CDI unterstützt den Aufbau von Forschungsrepositorien gemäß den Grundsätzen von Open Access. Weitere Informationen: https://www.eudat.eu/eudat-cdi