Juni 2016

Gauß-Allianz newsletter - Issue 45

GA-Mitglieder auf der ISC’16 in Frankfurt

In diesem Jahr findet die International Supercomputing Conference (ISC) vom 19. bis 23. Juni in Frankfurt statt. Als eine der wichtigsten internationalen Veranstaltungen für Hochleistungsrechnen und Europas größte Ausstellung auf diesem Gebiet bietet sie HPC-Anbietern, Universitäten und Forschungseinrichtungen aus aller Welt die Möglichkeit, ihre Neuheiten aus den verschiedenen Bereichen und Themen vorzustellen. Im Rahmenprogramm wird es interessante Vorträge u. a. zum Zusammenwachsen von HPC und Big Data, zu Performance-Modellierung und -Prognose sowie zu Exascale-Architekturen und Algorithmen für diese Systeme geben. Workshops und Tutorials, an denen sich auch die Mitglieder der Gauß-Allianz beteiligen, bereichern die Konferenz. ● Das GCS wird auf seinem Messestand u. a. interaktive Simulationen, Augmented-Reality- und parallele Remote-Visualisierung, interaktive Monitoring-Software und neueste 2D/3D-Videos präsentieren sowie über die Forschungsprojekte auf den drei GCS-Supercomputern informieren. ● Der Messestand des Hessischen Kompetenzzentrums für Hochleistungsrechnen (HKHLR) zeigt unter dem Motto „Brainware for Science“, wie die Forschenden bei der Nutzung der hessischen HPC-Infrastruktur unterstützt werden. ● Neben aktuellen Klimasimulationen präsentiert das DKRZ auf seinem Stand sein HPC-System „HLRE-3“, Datendienste am Beispiel des Projekts CMIP5 und – als Koordinator – das neue Exzellenzzentrum für europäische Wetter- und Klimamodellierung „ESiWACE“. Ein Team der DKRZ-Forschungsgruppe „Wissenschaftliches Rechnen“ nimmt an der Student Cluster Competition teil. ● Der HLRN präsentiert in diesem Jahr Meilensteine aus Schlüsselprojekten, die durch die Nutzung des HLRN Supercomputer Cluster erreicht werden konnten. HLRN-Vertreter und technische Experten geben Einblick in HPC-Trends und technische Spezifikationen des aktuellen Norddeutschen Supercomputers. ● Am Stand der Jülich Aachen Research Alliance (JARA) werden neben aktuellen Forschungsergebnissen wie der In-Situ-Visualisierung mittels einer Mehrphasen-DNS u.a. jüngste Entwicklungen im OpenMP-Standard präsentiert sowie das Werkzeug MUST (Marmot Umpire Scalable Toolkit) zur Laufzeit-Fehlererkennung von Parallelanwendungen. ● Das SCC informiert auf seinem Stand insbesondere über sein neues Petaflop-System ForHLR, das in einem eigenen Rechnergebäude mit neuester Kühltechnologie energieeffizient betrieben wird. Die baden-württembergische HPC-Föderation bwHPC ist mit einem weiteren Messestand vertreten, um den Status des Umsetzungskonzeptes sowie des Begleitprojektes bwHPC-C5 zu präsentieren. Gezeigt werden u. a. ausgewählte wissenschaftliche Forschungsarbeiten. ● Das ZIH beteiligt sich an mehreren Tutorials und stellt seine HPC-Infrastruktur sowie aktuelle Aktivitäten in den Bereichen Performance-Analyse, Energieeffizienz und Big Data vor. Weitere Informationen: http://www.isc-hpc.com/overview.html

Skalierbares Datenmanagement für zukünftige Systeme

Die DFG hat die Einrichtung eines Schwerpunktprogramms „Skalierbares Datenmanagement für zukünftige Hardware“ (SPP 2037) beschlossen. Für die Anwendung in Bereichen wie E-Sciences, Industrie 4.0, Internet der Dinge und Digital Humanities sind herkömmliche Datenbanksysteme, die als komplexe Softwaresysteme entwickelt wurden, nicht ausreichend. Um die gestiegenen Anforderungen zu erfüllen, bedarf es u. a. der Unterstützung domänenspezifischer Anfragesprachen oder Zugriffsschnittstellen sowie der Integration neuer Datenmodelle für die Anwendungsfelder; Korrektheitsgarantien müssen an die jeweiligen Bedürfnisse angepasst werden. Der mit den steigenden Möglichkeiten der Analyse, Auswertung und Verwertung von Daten einhergehenden Datenexplosion muss mit massiver Skalierbarkeit und Online-Verarbeitungsfähigkeit begegnet werden. Diese Entwicklungen erfordern neue Architekturen und Abstraktionen für flexible und skalierbare Datenmanagementlösungen. Projektanträge für dieses neue Schwerpunktprogramm können für die erste dreijährige Förderperiode bis zum 19. Oktober 2016 eingereicht werden. In Vorbereitung der Antragsstellung ist im September, im Rahmen des Treffens der Fachgruppe Datenbanken, ein Workshop geplant. Die Anträge können jedoch davon unabhängig eingereicht werden. Als Programmlaufzeit sind insgesamt sechs Jahre vorgesehen. Weitere Informationen: http://www.dfg.de/foerderung/info_wissenschaft/info_wissenschaft_16_26/index.html

Programmierung von Erdsystemmodellen

Im Rahmen des DFG-Schwerpunktprogramms „Software for Exascale Computing“ nahm im März ein internationales Team seine Arbeit auf, um die Programmierbarkeit, Leistungsportabilität und Ein-/Ausgabe-Leistungsfähigkeit von ikosaedrischen Erdsystemmodellen zu verbessern. In dem Projekt “Advanced Computation and I/O Methods for Earth-System Simulations (AIMES)” wird eine domänenspezifische Sprache für die Modelle ICON, DYNAMICO und NICAM entwickelt, die die bestehenden Codes vereinfacht und für unterschiedliche Zielplattformen übersetzt. Das geplante Source-to-Source-Compilerwerkzeug soll die Verarbeitung entsprechender Templates ermöglichen und somit flexibel einsetzbar sein. Für die Optimierung von Ein-/Ausgabe werden insbesondere verlustbehaftete Kompressionsverfahren untersucht und in bestehende Middleware integriert. Die Besonderheit hierbei ist, dass Nutzer/-innen die notwendige Genauigkeit und Leistungsfähigkeit quantifizieren können, woraufhin das bestmögliche Kompressionsverfahren ausgewählt wird. Die Projektpartner – die Universität Hamburg als Koordinator, RIKEN, Tokyo Institute of Technology und das Institut Pierre Simon Laplace – werden von der DFG, dem ANR (Frankreich) und JST (Japan) gefördert. Weitere Informationen: http://www.sppexa.de/general-information/projects-phase-2.html#AIMES2

Algorithmen für generische Finite-Elemente-Software

Im Projekt „ExaDG – High-Order Discontinuous Galerkin for the Exa-Scale“ sollen am Beispiel unstetiger Galerkin-Verfahren (DG) Strukturen und Algorithmen für generische Finite-Elemente-Software entwickelt werden, die den effizienten Einsatz auf neuesten Rechnergenerationen erlauben. Eine besondere Herausforderung ist in diesem Zusammenhang, dass die Eigenschaften der Verfahren nicht an die Hardware angepasst werden können, um die allgemeine Verwendbarkeit der Software zu erhalten. Stattdessen sollen Wege der effizienten Vektorisierung unabhängig von der Art der Diskretisierung und matrixfreie Implementationen zur Ausnutzung von Maschinen mit vielen Rechenkernen auf einem Knoten entwickelt werden. Mathematisch baut dabei die schnelle Lösertechnologie auf stark gekoppelten Mehrgitterverfahren auf. Diese Verfahren werden eingebettet in klassische Parallelisierung auf Rechen-Clustern mit vielen Rechenknoten. Partner in diesem von der DFG im Schwerpunktprogramm SPPEXA geförderten Projekt sind Wissenschaftler/-innen der Universität Heidelberg sowie der TU München. Weitere Informationen: http://www.sppexa.de/general-information/projects-phase-2.html#ExaDG2

Hessenweite Debugger-Lizenz

Das Hessische Ministerium für Wissenschaft und Kunst (HMWK) hat über das Hessische Kompetenzzentrum für Hochleistungsrechnen (HKHLR) die Beschaffung des Debuggers Totalview finanziert. Mit den insgesamt 2048 Token, die hessenweit zur Verfügung stehen, können Wissenschaftler/-innen stark parallelisierte HPC-Codes mit Totalview debuggen. Die Beschaffung umfasst auch umfangreiche Schulungsangebote und damit eine Erweiterung des Beratungsangebotes des HKHLR. Nutzung und Schulungen werden vom HKHLR koordiniert. Weitere Informationen: http://www.hpc-hessen.de

Big-Data-Sommerschule 2016 in Leipzig

Das Big-Data-Kompetenzzentrum ScaDS Dresden/Leipzig veranstaltet vom 11. bis 15. Juli in Leipzig die zweite International Summer School on Big Data. Die Sommerschule bietet Studierenden und Teilnehmenden aus Forschung und Wirtschaft ein ausgewogenes Programm aus Vorträgen, Online-Trainings, Kursen und Exkursionen. Sie soll einen Einblick in aktuelle Forschungsbereiche und grundlegende praktische Big-Data-Fähigkeiten vermitteln. Darüber hinaus wird es Gelegenheit geben, Ideen auszutauschen und die Themen mit den anderen Teilnehmenden und Vortragenden zu diskutieren. Die Gespräche und Vorträge werden in Englisch gehalten. Für die praktischen Übungen sind gute Englisch- und Java-Programmierkenntnisse erforderlich. Die Teilnahme ist begrenzt. Weitere Informationen und Details zur Anmeldung: http://www.scads.de/en/Summerschool-2016

GridKa School 2016

Die vom Steinbuch Centre for Computing am Karlsruher Institut für Technologie veranstaltete internationale GridKa School 2016 „Data Science on Modern Architectures“ findet in diesem Jahr vom 29. August bis 2. September statt. Die GridKa School ist eine der führenden Sommerschulen für Advanced Computing Technologies in Europa. Das Augenmerk der GridKa School liegt dabei auf der praktischen Vermittlung von Erfahrungen und Wissen durch eine Mischung aus Plenarvorträgen und interaktiven Kursen. Die Zielgruppe umfasst sowohl neue als auch fortgeschrittene Nutzer/-innen und Administrierende. Weitere Informationen: https://indico.scc.kit.edu/indico/event/196