Oktober 2015

Gauß-Allianz newsletter - Issue 39

Gauß-Allianz-Zentren auf der SC15 in Austin

Die diesjährige Supercomputing Conference – SC15 in Austin, Texas wird vom 15. bis 20. November wieder die neuesten Technologien, Trends und Innovationen im HPC-Bereich präsentieren. Experten aus der ganzen Welt kommen hier zusammen, um sich auf der Messe und in dem vielfältigen Konferenzprogramm über die Schlüsselfragen der Branche wie Networking, Speicherung und Analyse sowie Big Data auszutauschen und über die neuesten Entwicklungen zu diskutieren. Das zugehörige SC-Tutorial-Programm ist nicht nur eines der Highlights der Konferenz, sondern gleichzeitig eines der umfangreichsten der Welt. Auch die Gauß-Allianz-Mitglieder werden hier wieder ein breites Spektrum abdecken: von Softwareentwicklung, Parallele Programmierung, Laufzeitunterstützung und Fehleranalyse über Rechnerarchitektur, Cluster und verteiltes Computing bis hin zu Embedded Systems sowie weitere aktuelle Schwerpunkte. Die deutsche HPC-Community wird außerdem mit eigenen Messeständen und Präsentationen vertreten sein. Das JSC präsentiert auf seinem Stand wissenschaftliche Simulationen und vom JSC entwickelte Werkzeuge, wie z.B. LLview, Scalasca, Sionlib und UNICORE. Ein weiterer Schwerpunkt ist Scientific Big Data Analytics. Auch die Beteiligung am EU-Projekt Human-Brain und die Kooperation mit der RWTH Aachen in der Jülich Aachen Research Alliance (JARA) wird auf dem Stand des JSC thematisiert. Außerdem betreuen Mitarbeiter des JSC die Besucher am PRACE-Stand und am Stand der europäischen Exascale-Projekte und bieten mehrere Tutorials und Vorträge an. Das DKRZ stellt am Stand sein neues HPC-System „Mistral“ vor, informiert über das aktuelle EU-Projekt ESiWACE und zeigt aktuelle Klimasimulationen auf einem Monitor. Am Stand des ZIH wird neben aktuellen Forschungsschwerpunkten wie hochskalierende Performance-Analyse für Systeme mit und ohne Hardware-Beschleuniger, Energieeffizienz und Big Data auch die Arbeit mit dem neuen Bull-System vorgestellt. Auch das ZIB, das HLRS und das LRZ werden sich und aktuelle Projekte sowie wissenschaftliche Erfolge auf ihren Messeständen präsentieren. Weitere Informationen: http://gauss-allianz.de/sc2015

HLRS-Supercomputer Hazel Hen in Betrieb genommen

Am 1. Oktober wurde am Höchstleistungsrechenzentrum Stuttgart (HLRS) der neue CRAY XC-40 Supercomputer namens Hazel Hen offiziell in Betrieb genommen und für den allgemeinen Nutzerbetrieb freigegeben. Die Endstufe des HPC-Systembeschaffungsplans, wie er im Bund-Länder-Projekt PetaGCS für das HLRS festgelegt worden war, ist damit erreicht. Mit der finalen Ausbaustufe konnten die System- und Performance-Daten der bisherigen Installation annähernd verdoppelt werden: Hazel Hen besteht aus 41 Cabinets, die 7.712 Rechenknoten beherbergen. Jeder Knoten umfasst zwei CPUs vom Typ Intel Xeon CPU E5-2680 v3 (Haswell-Prozessoren) mit je 12 Rechenkernen, wodurch das System in Summe 185.088 Rechenkerne bietet. Der Hauptspeicher des Systems wurde auf 493 Terabyte aufgestockt, sodass den Nutzern nun rund 10 Petabyte Plattenspeicherkapazität zur Verfügung stehen. Hazel Hen liefert eine maximale Rechenleistung von 7,42 PetaFlop/s und ist damit fast doppelt so schnell wie Hornet. Weitere Informationen: www.hlrs.de/systems/platforms/cray-xc40-hazel-hen

Mistral beschleunigt Klimaforschung am DKRZ

Mit einem Festakt wurde am 5. Oktober der neue Supercomputer „Mistral“ am DKRZ von Hamburgs Bürgermeister Olaf Scholz, und dem Parlamentarischen Staatssekretär im BMBF, Stefan Müller, eingeweiht. Olaf Scholz erklärte selbstbewusst, dass „Hamburg längst zu den Klimaforschungshauptstädten“ zähle und versicherte, dass er sich auch für die Finanzierung des nächsten Supercomputers einsetzen wird. Stefan Müller betonte, dass die Kombination aus Supercomputer, dem besonders großen Festplattensystem und einem der größten Klimadaten-Archive der Welt dazu beiträgt, Deutschlands Spitzenposition im Bereich der Klimaforschung zu sichern. Bereits seit Juli 2015 arbeiten Klimaforscher mit der ersten Ausbaustufe von „Mistral“ der französischen Firma Atos/Bull. Im Endausbau im Sommer 2016 wächst seine Rechenleistung von derzeit 1,4 auf drei PetaFlop/s und seine Festplattenkapazität von derzeit 20 auf 50 Petabyte. Trotz zwanzigfacher Leistungssteigerung im Endausbau steigt der Energieverbrauch dank der Warmwasserkühlung im Vergleich zu seinem Vorgänger nicht an. An die Veranstaltung schloss sich ein Workshop an, bei dem die DKRZ-Nutzer ihre aktuellen Forschungsprojekte vorstellten und mit dem DKRZ-Team ihre Arbeitsweisen und Bedürfnisse in Bezug auf Infrastruktur und Dienste des DKRZ diskutierten. Weitere Informationen: https://www.dkrz.de/p/einweihung_mistral

Gauß-Allianz in europäischen Centres of Excellence

Mehrere Gauß-Allianz-Partner waren mit Bewerbungen im neuen europäischen Programm „Centres of Excellence (CoEs) for computing applications“ erfolgreich und werden demnächst mit ihren Forschungsvorhaben beginnen. Als Komponenten des e-Infrastrukturprogrammes im Rahmen von Horizont 2020 werden die CoEs mit je 4,1 bis 5,8 Mio. Euro finanziert. Sie werden dazu beitragen, die Position Europas im Bereich HPC-Anwendungen zu behaupten und wichtige Forschungsfelder wie erneuerbare Energien, Materialentwicklung und -Design, molekulare und atomare Modellierung, Klimawandel, systemwissenschaftliche und biomolekulare Forschung sowie Werkzeugentwicklung für die HPC-Anwendungsunterstützung voranzutreiben. Von den 20 eingereichten Bewerbungen wurden acht CoEs mit unterschiedlichen wissenschaftlichen Schwerpunkten ausgewählt. Deutschland ist dabei in allen acht CoEs vertreten, dreimal sogar als Koordinator. Neben dem DKRZ und dem MPCDF/RZG als Rechenzentren der GA tritt auch die Universität Potsdam als Koordinator auf. Die drei Zentren des GCS sind in insgesamt sechs der bewilligten Exzellenzzentren mit ganz unterschiedlichen Schwerpunkten beteiligt. Neben der Bereitstellung von Know-How beispielsweise zu Systemplattformen und Visualisierungstechnologien, übernehmen die GA-Rechenzentren führende Rollen in der Entwicklung von HPC-Dienstleistungen und Programmen für europaweite Nutzer aus Wissenschaft und Industrie.

Big-Data-Technologien zum Störungsmanagement

Im Forschungsprojekt „BigPro – Einsatz von Big Data-Technologien zum Störungsmanagement in der Produktion“ wird eine branchenunabhängige Big-Data-Plattform entwickelt, die das Störungsmanagement in der Produk-tion durch Datenmustererkennung unterstützen soll. Dazu wird eine Mustererkennung entwickelt, die in Echtzeit einen Abgleich des Datenstroms mit definierten Datenmustern ermöglicht, die bekannten Störungen zugeordnet sind. Dadurch werden bestimmte Störungen vorhersehbar und können durch Vorschläge für Gegenmaßnahmen über die Plattform verhindert werden. BigPro unterstützt damit das reaktive und legt gleichzeitig die Grundlage für ein proaktives Störungsmanagement. Ein rollenbasiertes Visualisierungskonzept unterstützt die Entscheidungsträger zusätzlich. Zur kontinuierlichen Verbesserung des zugrundeliegenden Maßnahmenkatalogs wird die Effektivität der eingesetzten Maßnahmen bewertet. Mit diesem proaktiven Störungsmanagement lassen sich Ausfallzeiten und entstehende Kosten reduzieren. Konsortialpartner des durch das Forschungsinstitut für Rationalisierung (FIR) der RWTH Aachen geleiteten Vorhabens sind die Asseco Solutions AG aus Karlsruhe, die C. Grossmann Stahlguss GmbH aus Solingen, die Cognesys GmbH aus Aachen, das Forschungszentrum Informatik am Karlsruher Institut für Technologie, die i2solutions GmbH aus Stolberg, die Robert Bosch GmbH aus Reutlingen, die Software AG aus Darmstadt und das Werkzeugmaschinenlabor der RWTH Aachen. BigPro wird im Rahmen des Förderprogramms „IKT 2020 – Forschung für Innovation“ durch das BMBF gefördert. Weitere Informationen: www.projekt-bigpro.de

Smartes Katastrophenmanagement – sd-kama

Um bei Katastrophen schnell zu handeln, benötigen Einsatzleitungen ein umfassendes Lagebild. Ziel des BMWi-geförderten Projektes „sd-kama – Smart Data-Katastrophenmanagement“ ist es, den Katastrophenhelfern umfassende Daten und Informationen aus heterogenen Quellen in Echtzeit zur Verfügung zu stellen und in Form digitaler Karten zu visualisieren. Zusätzlich zu Satellitenbildern und Luftaufnahmen werden dafür Informationen aus in situ Sensing-, Remote Sensing- und Crowdsourcing-Quellen verfügbar gemacht. Das sind beispielsweise Daten über Pegelstände, Verkehrsflüsse, psycho-physiologische Zustände von Einsatzkräften, Satellitendaten sowie Informationen von Betroffenen und Helfern aus sozialen Netzwerken, wie Fotos, Videos und Kommentare. sd-kama wird aus der Datenflut neue, akteursgerechte Informationen generieren und damit die Entscheidungsfindung verbessern. Die Projektpartner entwickeln dafür starke Integrations-, Prozessierungs- und Auswertungstools. Unter der Führung der geomer GmbH wird seit April 2015 in Zusammenarbeit mit den Projektpartnern Deutsches Zentrum für Luft- und Raumfahrt, Fraunhofer Heinrich-Hertz-Institut, Software AG und Hochwasserschutzzentrale Köln an diesem Vorhaben gearbeitet. Weitere Informationen: www.sd-kama.de

Hessisches Hochleistungsrechnen

Die Workshop-Serie „High Performance Computing Hessen (HiPerCH)“ ist ein Weiterbildungsangebot des Hessischen Kompetenzzentrums für Hochleistungsrechnen (HKHLR) zur HPC-Nutzung in Hessen. Im September wurden Themen aus dem Frühjahrsworkshop aufgegriffen: Referenten des Regionalen Rechenzentrums Erlangen erweiterten das Wissen der Nutzer zum Parallelen Programmieren und zur Performance-Analyse. Vertiefend wurden das Roofline-Modell, der Stencil-Code, OpenMP und LIKWID behandelt und eine Einführung in die OpenCL-Programmierung von GPGPUs sowie praktische Übungen angeboten.