Oktober 2016

Gauß-Allianz Infobrief - Ausgabe 48

Gauß-Allianz-Zentren auf der SC16 in Salt Lake City

Die mittlerweile 29. Supercomputing Conference (SC16) findet in diesem Jahr vom 14. bis 18. November in Salt Lake City, Utah statt. Die Messe ist die größte und wichtigste Veranstaltung im Bereich High Performance Computing (HPC) und bietet ein umfangreiches Programm zu den neuesten Technologien, Trends und Innovationen. Auf der weltweit größten Plattform für den Austausch zu Schlüsselfragen und die neuesten Entwicklungen in HPC, Networking, Speicherung und Analyse sowie Big Data ist insbesondere das zugehörige Tutorial-Programm eines der Highlights. Auch die Gauß-Allianz-Mitglieder werden hier wieder ein breites Spektrum – von Softwareentwicklung, Paralleler Programmierung, Laufzeitunterstützung und Fehleranalyse über Rechnerarchitektur, Cluster und verteiltes Computing bis hin zu eingebetteten Systemen – abdecken. Die deutsche HPC-Community wird außerdem mit eigenen Messeständen und Präsentationen vertreten sein. • Das JSC präsentiert auf seinem Stand wissenschaftliche Simulationen und im JSC für das Supercomputing entwickelte Werkzeuge, wie z. B. LLview, JUBE, Scalasca, SIONlib und UNICORE. Ein weiterer Schwerpunkt ist in diesem Jahr das Thema Modular Supercomputing. Auch die Beteiligung am Human Brain Project, die Kooperation mit der RWTH Aachen in der Jülich Aachen Research Alliance (JARA) und das EU-Projekt DEEP-ER werden auf dem Stand des JSC thematisiert. Außerdem betreuen Mitarbeiter des JSC die Besucher am PRACE-Stand und bieten mehrere Tutorials und Vorträge an. • Das Regionale Rechenzentrum Erlangen (RRZE) bietet sein seit Jahren etabliertes ganztägiges Tutorial zum Thema „Node-Level Performance Engineering“ an. • Neben Klimasimulationen präsentiert das DKRZ auf seinem Stand sein HPC-System Mistral, seine Datendienste für die Projekte CMIP5 und CMIP6 sowie – als Koordinator – das Exzellenzzentrum für europäische Wetter- und Klimamodellierung „ESiWACE“. Gleichfalls wird über die neu ins Leben gerufene Kooperation mit JAMSTEC (Japan Agency for Marine-Earth Science and Technology) informiert. • Das ZIH wird an seinem Messestand neben aktuellen Forschungsaktivitäten und Software-Entwicklungen insbesondere seine Aktivitäten im Bereich Big Data und Datenanalyse vorstellen. Darüber hinaus bietet es verschiedene Beiträge im wissenschaftlichen Programm der SC an und unterstützt die Betreuung des UNICORE-Stands. Weitere Informationen: https://gauss-allianz.de/de/article/sc16

Intel Lustre-Kompetenzzentrum in Hamburg

Intel fördert im Rahmen der Intel Parallel Computing Center for Lustre (IPCC-L) führende Rechenzentren und Institute bei der Aufgabe, das Lustre-Dateisystem weiterzuentwickeln. Seit Februar wird an der Universität Hamburg ein IPCC-L unterstützt, in dem die Möglichkeiten der Komprimierung von Speicherbedarf erforscht werden sollen. Schon lange sind die unterschiedlichen Zuwachsraten bei Berechnungsgeschwindigkeit, Netzwerkdurchsatz und Speicherkapazität eine große Herausforderung bei der Konfiguration und beim Betrieb von HPC-Systemen. Aufgrund des steigenden Bedarfs an Speicher und dessen Anschaffungs- und Betriebskosten machen Speichersysteme inzwischen einen beträchtlichen Teil der Gesamtkosten von Hochleistungsrechnern aus. Datenreduktionstechniken können hier eine Verbesserung erzielen. Im Rahmen des Intel Parallel Computing Centers „Enhanced Adaptive Compression in Lustre“ soll Unterstützung für Kompression in Lustre eingebaut werden. Dabei wird die Kompression sowohl auf Client- als auch auf Serverseite ermöglicht; insbesondere die clientseitige Kompression kann positive Effekte auf den Netzwerkdurchsatz haben. Die Kompression wird vollständig transparent für Anwendungen stattfinden, wobei diese trotzdem die Möglichkeit erhalten, weitere Einstellungen zu justieren. Weitere Informationen: https://wr.informatik.uni-hamburg.de/research/projects/ipcc-l/start

Pilotsysteme für interaktives Supercomputing

Das Jülich Supercomputing Centre hat zwei neue Pilotsysteme für einen interaktiven Superrechner in Betrieb genommen. Die Systeme – JULIA vom Hersteller CRAY sowie JURON von IBM und NVIDIA – sind speziell für Anwendungen aus den Neurowissenschaften ausgelegt. Die Installation und Testphase sind Teil eines speziellen vorkommerziellen Ausschreibungsverfahrens im Rahmen des europäischen Human Brain Projects (HBP). Nun testen Jülicher Wissenschaftler und ihre Kollegen im HBP, wie leistungsfähig beide Systeme sind und wie gut sie die gewünschten Funktionen erfüllen. Dazu nutzen sie unter anderem die Simulationssoftware NEST, die Simulationen von neuronalen Netzwerken im Gehirn ermöglicht. Supercomputer bei solchen Anwendungen interaktiv bedienen zu können, gilt als Schlüsselelement für die Hirnforschung von morgen. Künftig soll es Wissenschaftlern möglich sein, in die Programmabläufe einzugreifen und sie interaktiv zu steuern. Da bei Simulationen des menschlichen Gehirns enorme Mengen an Daten im Spiel sind, sind vor allem Technologien erforderlich, die große Datenmengen verwalten, in kurzer Zeit analysieren und auch visualisieren können. Bei beiden Rechnern kommen Technologien zum Einsatz, die teilweise noch gar nicht auf dem Markt sind. Zum Beispiel können die Rechenknoten über schnelle Netzwerke der neuesten Generation kommunizieren. Außerdem sollen neue, nicht-flüchtige Speichertechnologien eingesetzt werden.

BMBF-Projekt SKAMPY angelaufen

Im vom BMBF geförderten Projekt „Ultra-Skalierbare Multiphysiksimulationen für Erstarrungsprozesse in Metallen“ (SKAMPY) entwickeln Wissenschaftler aus Erlangen (FAU) und Karlsruhe (KIT, HSKA) sowie die TinniT GmbH gemeinsam eine Softwarelösung, um komplexe Phasenfeldmodelle hochparallel und effizient berechnen zu können. Komplexe Phänomene in den Natur- und Ingenieurwissenschaften werden dank der rapide steigenden Rechenleistung immer öfter mit Hilfe von realitätsgetreuen Simulationstechniken erforscht. Für die Entwicklung neuer Materialien, für die Verbesserung von Werkstoffeigenschaften sowie für die Optimierung von Herstellungs- und Fertigungsprozessen haben moderne und hocheffiziente Simulationstechniken eine unverzichtbare Bedeutung in der akademischen und industriellen Forschung erreicht. Die mechanischen Eigenschaften eines Werkstoffes werden ganz wesentlich durch die Ausbildung der Mikrostruktur beim Herstellungsprozess – der Erstarrung aus der Schmelze – festgelegt. Weitere Informationen: http://skampy.walberla.net

DFG-Förderung für Performance Engineering

Im Rahmen der Ausschreibung „Performance Engineering für wissenschaftliche Software“ fördert die DFG in den kommenden drei Jahren sechs von insgesamt 14 eingereichten Projekten mit einem Volumen von 4 Mio. Euro. Unterstützt werden damit Projekte mit Konzepten zur Steigerung der Effizienz von Codes sowie zur Sensibilisierung der HPC-Nutzer und deren Akzeptanz in diesem Bereich. Die zur Förderung empfohlenen Anträge werden von der DFG-Prüfungsgruppe als geeignet eingestuft, entweder lokal, ortsübergreifend oder auch national IT-Dienste so zu verbessern, dass eine große Zahl von Wissenschaftlern davon profitieren und HPC-Installationen effizienter genutzt werden. Die DFG nimmt mit dieser Förderaktivität eine wichtige förderstrategische Aufgabe zur infrastrukturellen Ausstattung angemessener Forschungsumgebungen wahr.

Qualitätssiegel für DKRZ-Langzeitarchiv

Das Langzeitarchiv des DKRZ (DKRZ-LTA) durchlief in den letzten Monaten eine Zertifizierung und erhielt dafür Ende Juni das Qualitätssiegel „Data Seal of Approval (DSA)“. Das Siegel wurde bislang an weltweit etwa 60 Einrichtungen vergeben, deren digitale Langzeitforschungsdatenarchive nachweislich hochqualifiziert, verlässlich und nachhaltig arbeiten. Die Zertifizierung beinhaltet 16 Kriterien, die sowohl das Archiv und seine internen Prozesse, als auch die Beziehungen und die Prozesse zu und mit den Datenproduzenten und -nutzern umfassen. Wie schon die Zertifizierung als World Data Center for Climate (WDCC) im Rahmen des ICSU World Data Systems, der sich das DKRZ seit 2003 unterzieht, zeigt die Zertifizierung nach DSA den hohen Standard der digitalen Langzeitarchivierung am DKRZ. Das DKRZ orientiert sich an den FAIR-Grundsätzen (findable, accessible, interoperable and reusable) und ermöglicht durch sein vertrauenswürdiges Archiv die langfristige Nachnutzung der Forschungsdaten. Weitere Informationen: http://www.datasealofapproval.org

6. HPC-Status-Konferenz der Gauß-Allianz

Am 28. und 29. November wird in Hamburg am Deutschen Elektronen-Synchrotron DESY die 6. HPC-Status-Konferenz stattfinden. Sie bietet Forschenden und Anwendern eine Plattform zum interdisziplinären Austausch zu aktuellen Forschungsaktivitäten und Fragestellungen im Bereich des Hoch- und Höchstleistungsrechnens in Deutschland. Im Mittelpunkt werden insbesondere die durch das BMBF in diesem Bereich geförderten Forschungsprojekte für anwendungsorientierte HPC-Software stehen. Begleitet werden die Programmpunkte durch den Community-übergreifenden Austausch von Ansätzen und Lösungen. Weitere Informationen: https://gauss-allianz.de/de/hpc-status-konferenz-2016