Mai 2016

Gauß-Allianz newsletter - Issue 44

Empfehlungen zur nationalen HPC-Förderung 2017

Für die Förderung von Forschungsbauten an Hochschulen sowie Großgeräten nach Art. 91b GG empfiehlt der Wissenschaftsrat der Gemeinsamen Wissenschaftskonferenz, welche Vorhaben realisiert werden sollen. Maßgeblich sind dabei die herausragende wissenschaftliche Qualität und nationale Bedeutung der Konzepte. Im Rahmen der programmatisch-strukturellen Linie „Hochleistungsrechner“ wurden in den aktuellen „Empfehlungen zur Förderung von Forschungsbauten (2017)“ die Anträge Berlins und der Universität Göttingen für den HLRN-IV sowie der TU Dresden für die Erweiterung des Hochleistungsrechners HRSK-II für skalierbare Datenanalyse als förderwürdig eingestuft. Der HLRN-Verbund ist Teil der nationalen HPC-Versorgungspyramide und zeichnet sich durch ein breites Anwendungsprofil aus. Zur Methodik des Wissenschaftlichen Rechnens trägt er im Rahmen einer nationalen Profilierung und Servicestruktur für HPC v.a. auf den Gebieten massiv-parallele Algorithmen für Multi-/Manycore-Systeme, datenintensive Anwendungen und HPC-as-a-Service-Architekturen bei. Das Konzept mit zwei Standorten soll für den HLRN-IV beibehalten werden. Die TU Dresden will ihr HPC-Konzept um spezielle Datenanalyse-Inseln erweitern und die Speicherkapazitäten ausbauen. Diese Zusammenführung der sehr dynamischen Bereiche Hochleistungsrechnen und Data Analytics ist bundesweit bisher einmalig. Die Ausrichtung auf Data Analytics ist eine konsequente Weiterentwicklung des datenintensiven Rechnens, das an der TU Dresden bereits seit 2004 verfolgt wird. Weitere Informationen: www.wissenschaftsrat.de/download/archiv/5246-16.pdf

75 Jahre ZUSE Z3 und die Digitale Revolution

Vor 75 Jahren stellte Konrad Zuse mit dem Z3 den weltweit ersten voll funktionsfähigen, programmierbaren Computer vor – das digitale Zeitalter begann in Berlin. Der Computer hat die Welt seitdem verändert – im Alltag, in der Arbeitswelt und Wissenschaft. Dabei liegen die größten Veränderungen noch vor uns. Am 11. Mai laden das Zuse Institute Berlin und seine Partner zu „The Digital Future“ ein – der Konferenz über die Auswirkungen der digitalen Revolution auf Wissenschaft und Gesellschaft. Internationale Spitzenwissenschaftler sowie Vor- und Querdenker werden sich über die Zukunft der digitalen Wissenschaften in Wechselwirkung mit der technologischen Entwicklung und gesellschaftlichen Prozessen austauschen. Neben einem historischen Rückblick von Horst Zuse, dem Sohn von Konrad Zuse, und Grußworten führender Mitglieder der Bundes- und Landesregierung gibt es hochkarätige Keynotes von Genevieve Bell (Intel), Jennifer Chayes (Microsoft), Leslie Greengard (New York University), Tony Hey (UK eScience), Yannis Kevrekidis (Princeton), Steve Oberlin (NVIDIA), Michele Parrinello (ETH Zürich), Jonathan Schaeffer (University Alberta), Steve Scott (Cray), Ed Seidel (NCSA) und Thomas Wiegand (Fraunhofer). Weitere Informationen: www.zib.de/zuse75

Materialforschung auf dem Weg zum Exascale

Materialforschung ist ein Forschungsgebiet, das schon in der Vergangenheit stark von den Fortschritten im Supercomputing profitiert hat. Das Bestreben, komplexe Systeme mit immer mehr Atomen zu simulieren, führt zu einem Bedarf an noch leistungsfähigeren Rechnern. Um das Potenzial zukünftiger Exascale-Rechner effizient ausschöpfen zu können, gibt es jedoch auch seitens der Anwendungen viel zu tun. Das von der EU geförderte Centre of Excellence „MaX – Materials design at the eXascale“, hat sich das Ziel gesetzt, Simulationsanwendungen aus der Materialforschung weiter zu entwickeln und für künftige Exascale-Architekturen fit zu machen. Unter der Koordination des CNR NANO (Modena, Italien) arbeiten dafür führende Entwickler von vier europäischen Simulationsanwendungen mit fünf europäischen Höchstleistungsrechenzentren zusammen. Am Forschungszentrum Jülich sind das Peter Grünberg Institut für Quanten-Theorie der Materialien sowie das Jülich Supercomputing Centre beteiligt. Weitere Informationen: www.max-center.eu

Algorithmische Differentiation in OpenModelica

Im Rahmen des 4. HPC-Calls des BMBF „Anwendungsorientierte HPC-Software für das Hoch- und Höchstleistungsrechnen in Wissenschaft und Wirtschaft“ wurde das Verbundprojekt „PARADOM– Parallele Algorithmische Differentiation in OpenModelica für energietechnische Simulationen und Optimierungen“ mit einer Laufzeit von drei Jahren bewilligt. Ziele des Projekts sind die Bereitstellung moderner mathematischer Methoden, welche exakte Ableitungsinformationen benötigen, sowie die Entwicklung entsprechender paralleler Algorithmen für die effiziente Simulation und Optimierung komplexer energietechnischer Anlagen mit OpenModelica auf HPC-Systemen. Die entwickelten Methoden für die geplanten Erweiterungen von OpenModelica in Verbindung mit der zugehörigen HPC-Parallelisierung werden als quelloffene Pakete für einen breiten Anwenderkreis verfügbar sein. Damit werden die Nutzbarkeit und Attraktivität von HPC-Systemen für technische Simulationen deutlich verbessert. Dem Konsortium gehören ABB, Siemens, LTX und Bosch Rexroth sowie die FH Bielefeld, die Universität Paderborn und die TU Dresden an.

Lustre-Kompetenzzentrum in Darmstadt

Das GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt betreibt eine große, weltweit einmalige Beschleunigeranlage für Schwerionen. Seit mehreren Jahren arbeitet das Zentrum an der Entwicklung des parallelen Dateisystems Lustre mit. Mit einer Gesamtkapazität von 14 Petabyte (netto) bei einer I/O-Kapazität von etwa 4 TeraBit/s ermöglichen zwei vom GSI betriebene Lustre-Dateisysteme die effiziente Analyse der großen Experiment-Datenmengen. Eines der beiden wird mit dem Backend-Dateisystem ZFS betrieben, das redundante Datenhaltung, Fehlerkorrekturverfahren sowie Ende-zu-Ende-Integritätsgarantie bereitstellt. In den kommenden Jahren soll die neue internationale Beschleunigeranlage FAIR am GSI gebaut werden. Dafür wird das Dateisystem auf 100 Petabyte ausgebaut und um den elementaren Bestandteil der Datenarchivierung erweitert. Diese wird auf das bestehende System eines Tivoli Storage Manager (TSM) aufsetzen, sodass Daten auf Bandlaufwerke oder andere Speichermedien archiviert werden können. Im Rahmen eines von Intel geförderten Intel Parallel Computing Centers entwickelt das GSI zudem eine Software-Schnittstelle zwischen Lustre und TSM. Dieses „copytool“, das quelloffen veröffentlicht werden soll, wird es ermöglichen, Daten nahtlos und transparent vom Lustre-Dateisystem auf TSM-Speichermedien zu archivieren und wiederherzustellen. Weitere Informationen: www.gsi.de

Forschungsdatennutzung auf internationaler Ebene

Die Research Data Alliance (RDA) mit Gründungspartnern aus den USA, Europa und Australien verfolgt das Ziel, den Austausch von Forschungsdaten, deren Inter-operabilität und effiziente Wiederverwendbarkeit durch weltweit gültige Absprachen zu steigern. Die europäische Zuarbeit im Rahmen des RDA-Europe-Projektes wird durch H2020 von der EC gefördert. Unter Federführung der MPG, vertreten durch die MPCDF, bündelt RDA-Europe die Kräfte und Bestrebungen von zwölf europäischen Organisationen, darunter gewichtige Akteure im Datenbereich, die in einem breiten Netzwerk aus Wissenschaft, Management, Bibliothekswesen oder aus Datenzentren agieren. Die RDA bedient sich einer ähnlichen Vorgehensweise wie z.B. die Internet Community in ihren Anfangsjahren – rough consensus and running code. Die Mitarbeit in einer der zahlreichen Arbeits- oder Interessengruppen steht allen Interessenten offen. Am 28. und 29. November 2016 wird am GeoForschungsZentrum in Potsdam das dritte RDA-Deutschland-Treffen stattfinden. Weitere Informationen: www.rd-alliance.org und www.europe.rd-alliance.org/

Energieeffizienz-Workshop: EnA-HPC 2016

Am 23. Juni wird der „Workshop on Energy-Aware High Performance Computing (EnA-HPC)“ im Rahmen der ISC 2016 in Frankfurt ausgerichtet. Er tritt die Nachfolge der Internationalen EnA-HPC-Konferenz an und wird vom IT Center der RWTH Aachen in enger Kooperation mit dem ZIH der TU Dresden, dem DKRZ, dem Fachbereich Informatik der Universität Hamburg und der Universität Heidelberg organisiert. Der Workshop widmet sich dem Energieverbrauch bzw. der Energieversorgung von HPC-Systemen. Das inhaltliche Spektrum des Workshops umfasst die Analyse und Optimierung der Energieeffizienz von Hardware und Software, die Modellierung und Simulation des Stromverbrauchs von Anwendungen sowie ökologische und ökonomische Belange des Betriebs von Rechenzentren. Weitere Informationen: www.ena-hpc.org

Erster Leibniz Extreme Scaling Award verliehen

Vom 29. Februar bis 3. März fand am Leibniz-Rechenzentrum (LRZ) der 4. Extreme Scaling Workshop statt. Dreizehn Projektteams nutzten die Gelegenheit, um gemeinsam mit Spezialisten des LRZ und Herstellerfirmen ihre Programme für den SuperMUC auf Höchstleistung zu trimmen. Ziel war es, möglichst große, reale Anwendungsfälle mit möglichst vielen der vorhandenen Prozessoren zu berechnen und dabei Rechenleistung und Energieverbrauch zu optimieren. Die Programme wie HemeLB, waLBerla, VERTEX, LISO, MPAS, SWIFT, GADGET oder GHOST kommen aus verschiedenen Wissenschaftsgebieten. Sie werden genutzt, um den Blutfluss im Körper, Supernovae oder genaue Wettervorhersagen zu berechnen. Die Projektteams kamen u.a. aus München, Erlangen, Darmstadt, Greifswald, Dresden, London, Durham oder Valencia. Zu Ehren von Gottfried Wilhelm Leibniz, dessen Todestag sich am 14. November zum 300. Mal jährt, verlieh das LRZ erstmals den „Leibniz Extreme Scaling Award“ an das Team VERTEX vom Max-Planck-Institut für Astrophysik. Für das LRZ bietet der Workshop Gelegenheit, sowohl seine Hardware als auch Software, Kommunikationssysteme und Dateisysteme auf den Prüfstein zu legen, was dem anschließenden Betrieb sehr zugute kommt. Weitere Informationen: www.lrz.de/presse/ereignisse/2016-03-03_extreme_scaling/