Oktober 2018

Gauß-Allianz newsletter - Issue 66

Gauß-Allianz-Zentren auf der SC18 in Dallas

Die diesjährige Supercomputing Conference (SC18) vom 11. bis 16. November findet in Dallas, Texas statt. Mit ihrem umfangreichen Programm zu den neuesten Technologien und Trends im High Performance Computing (HPC) ist die SC die größte und wichtigste Plattform in diesem Bereich. Neben einer Messe bieten ein technisches Rahmen- und das Konferenzprogramm zahlreiche Austauschmöglichkeiten zu Schlüsselfragen und Neuentwicklungen zu HPC, Networking, Speicherung und Analyse, aber auch zu Software- und Hardware-Entwicklung bis hin zu Anwendung, Forschung und Systemerfahrung. Besonders das Tutorial-Programm ist ein Highlight für die HPC-Community. Auch die Gauß-Allianz-Mitglieder nutzen die SC18, um sich zu informieren und vorzustellen. Sie reisen mit einem interessanten Portfolio – von Softwareentwicklung, paralleler Programmierung, Laufzeitunterstützung und Fehleranalyse über Rechnerarchitektur, Cluster und verteiltem Computing bis hin zu eingebetteten Systemen und Ansätzen für das datenintensive Rechnen – in Dallas an.
Das DKRZ präsentiert ultra-hochaufgelöste Klimasimulationen des Projektes DYAMOND, für das mit dem Klimamodell ICON die Atmosphäre bzw. der Ozean mit einem globalen Gitterabstand von 2,5 km berechnet wurden. • Am HLRS-Stand kann mittels Gleitschirmflugsimulator der Schwarzwald in einem Rennparcours abgeflogen werden. • Im Mittelpunkt des JSC-Auftritts steht das Konzept des modularen Supercomputing und die Vorstellung des neuen modularen Supercomputers JUWELS. Als ein Anwendungsschwerpunkt wird die Erdsystemmodellierung vorgestellt. Weitere Themen sind die Beteiligung an der Infrastruktur FENIX für das Human-Brain-Projekt, die Aktivitäten im Bereich Deep Learning sowie die Jülich Aachen Research Alliance (JARA). Das JSC zeigt hauseigene HPC-Softwarewerkzeuge sowie die Anwenderunterstützung; am Stand sind außerdem die DEEP-Projekte zu Gast. • JARA-HPC wird das Projekt Rhinodiagnost präsentieren, in dem Wissenschaftler/-innen des SimLabs Highly Scalable Fluids & Solids Engineering, des Aerodynamischen Instituts, der RWTH Aachen University und des JSC mit Industriepartnern im Kontext zu Rhinologie-Simulationen und virtuellen Operationen zusammenarbeiten. • Das RRZE bietet wieder das populäre Ganztages-Tutorial „Node-Level Performance Engineering“ an. • Das ZIH wird in den verschiedenen Plattformen der SC sowie auf seinem Stand vor allem seine neuen Ergebnisse in Performanceanalyse, Data Intensive Computing sowie Data Analytics präsentieren. Die Vorstellung der aktuellen Neuinstallationen und die damit erreichte enge Verknüpfung von HPC und Datanalyse bilden dabei den Schwerpunkt. Weitere Informationen: https://gauss-allianz.de/de/article/sc18 .

Göttingen beginnt mit dem HLRN-IV-Betrieb

Der Norddeutsche Verbund für Hoch- und Höchstleistungsrechnen (HLRN) erhält einen neuen Supercomputer, den HLRN-IV, welcher im Vollausbau 2019 über insgesamt 244.000 Prozessorkerne und eine Peak-Rechenleistung von ca. 15 PetaFlop/s verfügen wird. Betreiberzentren werden erneut das Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) und erstmals die Georg-August-Universität Göttingen. Die Bereitstellung des HLRN-IV durch den Hersteller Atos SE beginnt mit einer ersten, auf Intel Skylake CPUs basierenden Ausbaustufe in Göttingen. Sie umfasst 432 Compute-Nodes mit jeweils 40 Rechenkernen und 192 bis 768 Gibibyte RAM. Als Cluster Interconnect kommt die Omni-Path-Architecture (OPA) von Intel zur Anwendung. Als Massenspeicher stehen DataDirect Networks (DDN) Appliances mit Spectrum Scale und Lustre Dateisystemen und einer Nettokapazität von insgesamt ca. 8,5 Pebibyte zur Verfügung. Der zunächst eingeschränkte Nutzerbetrieb beginnt in der ersten Oktoberhälfte 2018. Weitere Informationen: https://www.hlrn.de

CLAIX-2018 am IT Center der RWTH Aachen

Im Juli hat die RWTH Aachen University die Firma NEC als Lieferant für die zweite Ausbaustufe des Hochleistungsrechners CLAIX (Cluster Aix-la-Chapelle) ausgewählt. CLAIX-2018 wird aus rund 1100 Rechenknoten mit 2x Intel Skylake CPUs (je 24 Kerne) sowie 48 Rechenknoten mit jeweils zwei NVIDIA Volta V100 GPUs (inkl. NVLink) bestehen. Alle Rechenknoten sind mit einem Intel Omni-Path 100-Gigabit/s-Netzwerk verbunden. Ein hoch performantes Lustre-basiertes Speichersystem wird zusätzlich eine Kapazität von 10 Petabyte und eine Bandbreite von 150 Gigabyte/s (lesend und schreibend) bieten. Für die Simulationsanwendungen des RWTH-Job-Mix werden mit CLAIX-2018 deutliche Performance-Verbesserungen erzielt. Im Vergleich zur ersten Ausbaustufe 2016 erhöht sich die durchschnittliche Pro-Core-Performance bei gleichbleibenden Datensätzen um 30%. Das System wird in der neuen Rechnerhalle am IT Center aufgebaut werden. Diese verfügt über eine freie Kühlung. CLAIX-2018 soll im November im Testbetrieb starten und ab Dezember uneingeschränkt zur Verfügung stehen. Rechenzeit für das System kann bereits jetzt beantragt werden (Link: https://doc.itc.rwth-aachen.de/display/CC/Access ), insbesondere gibt es Antragswege für wissenschaftliche Nutzung aus dem ganzen Bundesgebiet.

Berlin Big Data Center startet in die 2. Phase

Das vom BMBF seit 2014 geförderte Berlin Big Data Center (BBDC) startete – nach positiver Evaluation des bisherigen Projektes – im September in seine dreijährige zweite Förderphase mit einem leicht erweiterten Konsortium aus TU Berlin, TU Braunschweig, ZIB, Charité, DFKI und assoziierten Partnern. In der zweiten Phase soll die erfolgreiche Forschung, Entwicklung und Lehre von Big-Data-Technologien der nächsten Generation im Kontext verschiedener Anwendungsdisziplinen aus der Wissenschaft und Industrie weiter fortgesetzt werden. Als neue Herausforderungen kommen insbesondere Aspekte heterogener, geographisch verteilter Daten und ihre echtzeitnahe Verarbeitung und Analyse, Datensouveränität, effiziente, inkrementelle Datenanalyse aus unzähligen, kontinuierlichen Datenquellen, und die Fehler- und Leistungsanalyse als weitere Schwerpunkte des BBDC2 hinzu. Das ZIB konzentriert sich auf die Analyse verteilter biomedizinischer Massendaten und deklarativem Datenmanagement für eine konsistente Zustandsverwaltung für die Datenstromanalyse. Anwendungen und die zu entwickelnde Workflow-Umgebung sollen die Nutzung von Datensätzen abstrakt definieren. Hinzu kommen Anforderungen an Redundanz-, Konsistenz- und ggf. geographische Verteilungseinschränkungen mit dem Ziel, die verfügbaren Ressourcen effizient nutzbar zu machen, ohne dass Anwendungswissenschaftler/-innen Expertise für Algorithmen des verteilten Datenmanagements besitzen müssen. Weitere Informationen: http://www.bbdc.berlin

Internationales HPC-Symposium CoSaS in Erlangen

Das diesjährige HPC Symposium „Computational Science at Scale“ (CoSaS) wurde vom 5.-7. September an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) ausgerichtet. Es war eingebettet in das DFG Schwerpunktprogramm Software for ExaScale Computing (SPPEXA), dessen Kernthema die unterschiedlichen Aspekte von HPC-Software in der Ära massiv-paralleler Computersysteme ist. Ziel war es, die Mitglieder des Schwerpunktprogramms untereinander weiter zu vernetzen und mit anderen Forschenden auf diesem Gebiet zusammenzubringen. Neben hochrangigen eingeladenen Vortragenden aus aller Welt, umfasste das Programm Vorträge zu den verschiedenen SPPEXA-Projekten sowie eine Poster-Session mit etwa 70 ausgestellten Postern, von denen drei durch das Publikum und eine Jury für einen SPPEXA-Poster-Award ausgewählt wurden. Die mehr als 100 Teilnehmer/-innen diskutierten angeregt über das Fachgebiet Computational Science and Engineering und tauschten Ideen über die zukünftige Entwicklung von Methoden und Software für die hochparallele numerische Simulation auf Supercomputern aus. Weitere Informationen: https://www.cosas2018.fau.de/ .

Gedenken an Stefan Heinzel

† 28. August 2018

Ende August 2018 ist Stefan Heinzel, langjähriger Leiter des Rechenzentrums der Max Planck Gesellschaft in Garching, im 66. Lebensjahr plötzlich und unerwartet verstorben. Wir haben eine herausragende und tatkräftige Persönlichkeit verloren. Als einer der ersten Absolventen des Studiengangs Informatik begann Stefan Heinzel sein Wirken am Max Planck Institut für Plasmaphysik. Nach seinem Wechsel an das Rechenzentrum Garching wurde er 1993 dessen Leiter. Als Experte auf den Gebieten Hochleistungsrechnen und Datenspeicherung war Stefan Heinzel Mitinitiator und treibende Kraft für viele europäische Projekte. Sowohl innerhalb als auch außerhalb der Max Planck Gesellschaft war er eine hochgeschätzte Persönlichkeit mit anerkannter fachlicher und sozialer Kompetenz. Auf seinen Rat hat man gerne gehört, nicht nur in Deutschland oder Europa, sondern weltweit, in Wissenschaft, Wirtschaft und Politik. Auch die Gauß-Allianz nimmt Abschied von Stefan Heinzel und wird ihm ein ehrenvolles Gedenken bewahren.