G20-Partnerprogramm am DKRZ und MPI-M
Am 7. Juli begrüßten Prof. Dr. Thomas Ludwig, Direktor des DKRZ, und Prof. Dr. Martin Claußen, Geschäftsführender Direktor des Max-Planck-Instituts für Meteorologie (MPI-M), die Partner/-innen der Staats- und Regierungschefs des G20-Gipfels in Hamburg in den Räumen des Hotel Atlantic. Als Gastgeber hatte sich der Quantenchemiker Prof. Dr. Joachim Sauer, Ehemann der Bundeskanzlerin, zu diesem Anlass neben einer Hafenrundfahrt und dem Besuch des Rathauses auch ein wissenschaftliches Programm gewünscht. So wurde den Staatsgästen ein Überblick über die Historie der Klimaforschung in Hamburg sowie über die aktuelle Klimaforschung geboten und sie erhielten einen Einblick in die Besonderheiten des Hochleistungsrechnersystems und seiner enormen Speicherkapazitäten. Den ursprünglich geplanten Rundgang durch den Rechnerraum und zu den Datenarchiven des DKRZ erlebten die Staatsgäste virtuell mit Foto- und Filmaufnahmen. Weitere Informationen: https://www.dkrz.de/about/kontakt/presse/aktuell/G20-partnerprogramm
Neue FPGA-Forschungscluster am PC2 verfügbar
Field-Programmable Gate Arrays (FPGAs) sind programmierbare Hardware-Bausteine, die durch anwendungsspezifische Programmierung maßgeblich zur schnelleren und stromsparenderen Verarbeitung rechenintensiver Aufgaben beitragen können. Trotz Spezialisierung sind FPGAs sehr flexibel, da ihre Funktion durch einen Programmierprozess in Software jederzeit geändert werden kann. Zur Evaluation von FPGAs im wissenschaftlichen Rechnen hat das Paderborn Center for Parallel Computing (PC2) zwei Forschungscluster mit FPGAs in Betrieb genommen. Neben der Entwicklung paralleler FPGA-Anwendungen, die z. B. mittels Message Passing über mehrere Knoten skalieren, werden mit diesen Systemen auch praktische Erfahrungen im Workload-Management und Mehrbenutzerbetrieb gesammelt. Der XCL-Cluster verfügt über 8 Knoten mit insgesamt 16 FPGAs der Firma Xilinx. Für lokale Daten stehen pro FPGA zwei unabhängige Speicherbänke mit je 8 Gigabyte SDRAM zur Verfügung. Mit der Entwicklungsumgebung Xilinx-SDAccel können die FPGAs ausgehend von einer OpenCL-Spezifikation programmiert werden. Dies erleichtert die Portierung bestehender OpenCL-Codes und ermöglicht die rasche Evaluation von unterschiedlichen Varianten des Hardwarebeschleunigers zur Performance-Optimierung. Zugang zum XCL-Cluster steht Mitarbeiter/-innen deutscher Hochschulen und Forschungseinrichtungen auf Antrag kostenfrei zur Verfügung. Im Mai wurde außerdem der HARP-Cluster in Betrieb genommen. Durch Kooperation mit Intel im Rahmen des Hardware Accelerator Research Programs (HARP) bietet das PC2 als eines von weltweit zwei akademischen Rechenzentren ein Cluster-System mit 10 Knoten an, die mit dem Intel Xeon+FPGA-Prozessor ausgestattet sind. Diese Prototypen-Plattform integriert eine Xeon-Broadwell-CPU mit einem Intel Arria 10 FPGA in einem Prozessor. Der Vorzug dieser Architektur liegt im cache-kohärenten Zugriff vom FPGA auf den Systemspeicher. Der Zugang zum HARP-Cluster ist HARP-Projektteilnemern vorbehalten. Weitere Informationen: http://pc2.uni-paderborn.de/go/fpga
EU-Austauschprogramm HPC-Europa ist zurück
Auch die dritte Auflage von HPC-Europa bietet (Nachwuchs-)Forscher/-innen aus der EU sowie assoziierten Ländern die Möglichkeit eines Forschungsaufenthaltes von 3 bis 13 Wochen bei einem ausländischen Partner-Rechenzentrum. Dabei geht es darum, sowohl Kenntnisse im Bereich des wissenschaftlichen Rechnens wie beispielsweise zu Software-Werkzeugen, Anwendungen, und Middleware zu vertiefen, als auch Zugang zu den HPC-Systemen der jeweiligen Rechenzentren in den beteiligten Ländern zu vermitteln. Ziel des Programms ist es, den wissenschaftlichen Austausch innerhalb der europäischen HPC-Community zu fördern und zu erweitern. Dafür schreibt das Programm jährlich vier Calls-for-Participation aus. Mit HPC-Europa3 wird seit 1. Mai der seit fast zwei Jahrzehnten bestehende hochwertige Dienst für den grenzüberschreitenden Zugang zu den modernsten HPC-Infrastrukturen in Europa fortgeführt. Über ein unbürokratisches Bewerbungs- und Auswahlverfahren mit einem internationalen Peer-Review-Prozess erhalten die Teilnehmer/-innen Zugang zu einem der neun europäischen HPC-Zentren sowie Betreuung bei der Nutzung der modernen HPC-Infrastrukturen durch Mentor/-innen. Die erste Bewerbungsrunde endet am 7. September 2017. Die Bewerber/-innen werden bereits vor Ende Oktober informiert, sodass die ersten Reisen schon im November 2017 beginnen können. Reise-, Aufenthalts- sowie Rechenzeitkosten können über HPC-Europa übernommen bzw. gefördert werden. Weitere Informationen sowie Kontakt: http://www.hpc-europa.eu/
Task-basiertes Programmieren von HPC-Anwendungen
Das vom BMBF seit April 2017 für drei Jahre geförderte Projekt Chameleon hat das Ziel, eine reaktive Programmierumgebung für zukünftige HPC-Systeme mit dynamischer Variabilität von Ausführungseigenschaften zu entwickeln. Diese Variabilität ist heute bereits bei Techniken wie dem automatischen Übertakten von CPUs (Turbo-Boost) zu erkennen und wird in Zukunft eine immer größere Rolle spielen. Als Erweiterung der weit verbreiteten Programmieransätze MPI und OpenMP sollen mit Chameleon – durch die Bereitstellung einer task-basierten Programmierumgebung – Anwendungen in die Lage versetzt werden, auf die dynamische Änderung zu reagieren. Eine effiziente Ermittlung der Leistungseigenschaften der Anwendung zur Laufzeit (Introspektion) bildet die Entscheidungsgrundlage für die dynamischen Anpassungen von Chameleon, die anhand zweier Anwendungen zum einen aus dem Bereich Geologie, wo die Ausbreitung seismischer Wellen simuliert wird, sowie zum anderen Finite-Volumen- und Finite-Elemente-Simulationen auf dynamisch adaptiven Dreiecksgittern erprobt werden. Die TU München und die RWTH Aachen sind als Projektpartner an der Durchführung beteiligt. Weitere Informationen: http://www.chameleon-hpc.org/
SU2 Summer School an der TU Kaiserslautern/RHRK
Der Einsatz computergestützter Verfahren ist bei der Entwicklung moderner technischer Anlagen nicht mehr wegzudenken. Dabei kann auf eine große Auswahl von Softwarelösungen zurückgegriffen werden. Insbesondere im Bereich der Strömungs- und Strukturmechanik ist die effiziente Berechnung auf Hochleistungsrechnern heute bereits unverzichtbar. Zudem lässt sich ein wachsendes Interesse am Einsatz von Berechnungssoftware in Auslegungs- und Entwurfsketten beobachten. In dieser Schnittmenge ist in den letzten Jahren das Open-Source-Softwareprojekt SU2 stark gewachsen. Am Regionalen Hochschulrechenzentrum Kaiserslautern (RHRK) findet dazu vom 21. bis 25. August die erste SU2 Summer School statt. Die Vorträge und Tutorien behandeln u. a. Grundlagen der Optimierung, Einführung in die Verwendung und Erweiterung von SU2, Algorithmisches Differenzieren u.v.m. Weitere Informationen: http://www.scicomp.uni-kl.de/summer-school-on-su2/
Konferenz am KIT: Big Data trifft Smart Data
In einem All-Hands-Meeting am 11. und 12. Oktober erhalten alle vom BMBF im Bereich Big Data geförderten Forschungsprojekte die Möglichkeit zum wissenschaftlichen Austausch, zur Präsentation der erreichten Projektergebnisse und zur Abstimmung zukünftiger Ausrichtungen. Eingeladen sind alle Wissenschaftler aus den Big-Data-Kompetenzzentren und den 20 Big-Data-Projekten, Vertreter der Begleitforschung sowie ausgewählte Vertreter aus der deutschen Industrie und dem Mittelstand. Als eines der drei deutschen Big-Data-Kompetenzzentren veranstaltet das KIT das zweite Treffen dieser Art und wird damit seiner herausragenden Rolle innerhalb der deutschen Big-Data-Forschung gerecht. Im Rahmen der Konferenz sind 25 Vorträge zu Datenanalytik, Anwendungsfällen und Big-Data-Plattformen sowie Tutorials und Hands-on-Trainings geplant. Diskussionsrunden mit Industrievertretern der Data Innovation Communities des vom KIT geführten Smart Data Innovation Lab (SDIL) runden das Programm ab. Weitere Informationen: https://www.sdil.de/BDAHM
Jobspezifisches Performance Monitoring
Am 20. und 21. Juli fand am Regionalen Rechenzentrum Erlangen (RRZE) der Abschlussworkshop des Verbundprojekts FEPA (Flexibles Framework zur Energie- und Performanceanalyse hochparalleler Applikationen im Rechenzentrum) statt. FEPA wurde von 2013 bis 2016 durch das BMBF gefördert und gemeinsam vom RRZE, dem LRZ Garching und der NEC Deutschland GmbH bearbeitet. Die thematische Relevanz der FEPA-Arbeiten für die gerade begonnenen Projekte im Rahmen der DFG-Ausschreibung „Performance Engineering für wissenschaftliche Software“ wurde zum Anlass genommen, ein projektübergreifendes Koordinationstreffen innerhalb des DFG-Calls anzustoßen. Vertreter von fünf DFG-Projekten (ProPE, Profit-HPC, EPE, PeCoh und SES-HPC) haben an diesem Treffen teilgenommen. Der mit fast 30 Teilnehmern sehr gut besuchte Workshop beleuchtete alle Aspekte eines clusterweiten jobspezifischen Monitoring-Stacks – von der Datenerfassung bis zur Interpretation und Darstellung der Messungen. Als Resultat der Vorträge, Online-Demonstrationen und Diskussionsrunden wurde u. a. vereinbart, mittels einer Wiki-Plattform gemeinsam Spezifikationen und „Best Practices“ für die Umsetzung eines jobspezifischen Monitoring-Frameworks zu erarbeiten. Seitens der DFG wurde angeregt, die enge Abstimmung der Projekte mit dem Ziel der Etablierung nachhaltiger Strukturen im Performance Engineering weiterhin zu pflegen. Darüber hinaus sollen erste Ansatzpunkte für gemeinsame Aktivitäten zwischen den DFG-Projekten ausgebaut und im Rahmen eines weiteren Workshops im Frühjahr 2018 vertieft werden. Weitere Informationen: https://blogs.fau.de/prope/fepa-workshop-2017/