Juni 2015

Gauß-Allianz newsletter - Issue 36

Rechenzentrumseinweihung an der TU Dresden

Die TU Dresden hat am 13. Mai im Beisein des Sächsischen Ministerpräsidenten Stanislaw Tillich, der Bundesministerin für Forschung und Bildung, Prof. Dr. Johanna Wanka und der Sächsischen Staatsministerin für Wissenschaft und Kunst, Dr. Eva-Maria Stange ihr nach modernsten Standards konzipiertes neues Rechenzentrum eingeweiht. Gleichzeitig wurde der neue sächsische Hochleistungsrechner HRSK-II in Betrieb genommen. Die Investitionskosten wurden von Bund und Land Sachsen getragen. Das neue Gebäude vereint Sicherheit und Hochverfügbarkeit mit hoher Leistungsdichte und langfristig flexibler Nutzbarkeit. Es zeichnet sich durch Energie- und damit Kosteneffizienz aus. Allein die Warmwasserkühlung des HRSK-II spart mehr als 250.000 Euro Betriebskosten jährlich durch den Verzicht auf Kältemaschinen. Zusätzliche Einsparungen entstehen durch die Nachnutzung der Rechnerabwärme im Campus. Mit etwa 43.000 CPU-Kernen in Intel-Prozessoren, 216 Grafikkarten Nvidia Tesla, einer Hauptspeicher-Bandbreite von 213 TByte/sec und einer Spitzenleistung von über 1,65 PetaFlop/s löst der von Bull gelieferte Hochleistungsrechner die bisher am ZIH betriebenen HPC-Systeme ab. Mit seiner für das datenintensive Rechnen konzipierten Architektur und den weitreichenden Möglichkeiten zur Energiemessung und zum Performance-Monitoring bietet der HRSK-II ideale Voraussetzungen, um während der geplanten Betriebszeit die gesteckten Forschungsziele zu erreichen. Gleichzeitig bietet das System eine erste infrastrukturelle Basis für die Serviceaufgaben des Big-Data-Kompetenzzentrums ScaDS Dresden/Leipzig. Weitere Informationen: http://tu-dresden.de/zih/aktuelles/dateien/einweihung_hrsk2

SuperMUC Phase 2 am LRZ auf bestem Wege

Die Hardware-Installation für die Erweiterung des Höchstleistungsrechners SuperMUC (vgl. GA-Infobrief Nr. 33) am LRZ ist abgeschlossen. Alle Systeme arbeiten wie geplant. Nach der Übergabe durch den Hersteller konnte das LRZ alle Leistungsprüfungen durchführen. Die zugesagten synthetischen und Anwendungsbenchmarks wurden erreicht. Damit wurden entscheidende Bedingungen für die Abnahme des Systems in den nächsten Wochen erfüllt. Gegenwärtig läuft die 30-tägige Zuverlässigkeitsprüfung, während der ausgewählte Projekte, die den bisherigen SuperMUC besonders intensiv auslasteten, die neuen 86.016 Rechenkerne für ihre Rechnungen nutzen und dabei die Zuverlässigkeit der Hardware und Software testen. Die offizielle Inbetriebnahme der Phase 2 des SuperMUC soll Ende Juni bei einer Feier im LRZ mit dem symbolischen Knopfdruck durch die Hausherren, Hersteller und Vertreter der Ministerien, die die Finanzierung stellten, erfolgen. Danach beginnt der allgemeine Nutzerbetrieb des Systems, das über das Gauss Center für Supercomputing für Wissenschaftler in Deutschland, über PRACE auch für Wissenschaftler in 23 weiteren europäischen Nationen neue exzellente Möglichkeiten für Spitzenforschung durch numerische Simulationen schaffen wird. Weitere Informationen: http://lrz.de/supermuc

Finanzierung des nationalen Hochleistungsrechnens

Ende April hat der Wissenschaftsrat neue „Empfehlungen zur Finanzierung des Nationalen Hoch- und Höchstleistungsrechnens in Deutschland“ verabschiedet, um die Grundlage für eine langfristig stabile und kosteneffiziente Weiterentwicklung und Finanzierung des Hoch-und Höchstleistungsrechnens zu legen. Insbesondere im Hochschulbereich soll – über die jeweiligen Trägerländer hinaus – eine leistungsfähige Infrastruktur geschaffen werden. Ausgangspunkt ist die Erkenntnis, dass die verfügbare Rechenleistung und Speicherkapazität in zahlreichen Forschungsgebieten einen qualitativen und quantitativen Rahmen für die Bearbeitung der jeweiligen Fragestellungen setzt. Der Wissenschaftsrat unterstreicht, dass neben Ressourcen-Verfügbarkeit eine fundierte Unterstützung bei deren Auswahl und bei der Entwicklung und Optimierung von Algorithmen und Software sichergestellt werden soll. Denn Hardware allein ist noch kein Garant für den Erfolg. Verfügbare Software und Support sind Kernelemente, um das Computing-Potenzial effizient auszuschöpfen. Weitere Informationen: https://gauss-allianz.de/pp-wr-2015

Many-Core Computing am ZIB: Eine erste Bilanz

Ende 2013 startete am Zuse-Institut Berlin (ZIB) das „Research Center for Many-Core High-Performance Computing“ - eines der ersten Intel Parallel Computing Center (IPCC) weltweit. Während der letzten 20 Monate wurden Codes aus Bereichen wie Materialwissenschaft (VASP), Hochenergiephysik (BQCD), molekulare Thermodynamik (GLAT), Biophysik (HEOM) sowie Big-Data-Zeitreihenanalyse (BOSS VS) modernisiert. Die Optimierungen betreffen die verbesserte Nutzung der SIMD-Einheiten, des Multithreadings und die Skalierung auf Intel-Xeon-Phi-Clustern. Horizontale FuE-Themen unterstützen die Modernisierung: Mit dem Heterogenous-Active-Messages (HAM) Offload können entfernte Xeon-Phi-Koprozessoren in GLAT und HEOM genutzt werden, und die konkurrierende Ausführung von Offloads wird in GLAT, VASP und HEOM genutzt. Für letzteren Code haben wir die Programmiermodelle OpenCL und OpenMP4 systematisch gegenübergestellt. Die Intel-Software-Entwicklungswerkzeuge unterstützen die Optimierung gut, zeigen allerdings noch Verbesserungsmöglichkeiten auf. Generell gilt: Die Optimierung für die MIC-Architektur ist unmittelbar ein Gewinn für die Variante auf Standardprozessoren. Für die jeweils optimierten Varianten können wir Beschleunigungen gegenüber Zweisockel-Haswell-Knoten von typischerweise 1,5 und eine Skalierung auf 15 entfernten Koprozessoren demonstrieren. Bei Legacy-Codes ist die Vektorisierung besonders kritisch – dann werden Beschleunigungen von zwei bis drei gegenüber einem Zweisockel-Sandybridge-Knoten erzielt. Weitere Informationen: http://www.zib.de/institute/intel-center

Proaktives Handeln in der Anlagenführung

Das Verbundprojekt „Frühzeitige Erkennung und Entscheidungsunterstützung für kritische Situationen im Produktionsumfeld“ (FEE) analysiert in Produktionsanlagen aufgezeichnete heterogene Datenmengen in einer Big-Data-Analyseplattform. Dazu werden z. B. Daten aus Sensoren, Engineering- und Assetdatenbanken, Prozess-Informations-Systemen sowie aus Schichtbüchern und Betriebsvorschriften verwendet. Darauf aufbauend sollen Big-Data-Methoden entwickelt werden, um Anlagenfahrer frühzeitig vor unerwarteten Betriebszuständen zu warnen und mit interaktiven Assistenzfunktionen bei der Ad-hoc-Analyse sowie der Entwicklung von Eingriffsstrategien zu unterstützen. So wird proaktives statt reaktives Handeln ermöglicht. FEE ist ein vom BMBF gefördertes Vorhaben auf dem Gebiet „Management und Analyse großer Datenmengen (Big Data)“. Partner sind ABB Deutschland, RapidMiner GmbH, TU Dresden mit der Professur für Prozessleittechnik, Universität Kassel mit den Fachgebieten Mess- und Regelungstechnik und Wissensverarbeitung sowie als assoziierte Partner u. a. PCK Raffinerie GmbH und INEOS in Köln. Weitere Informationen: http://fee-projekt.de

iTESA – Intelligente Echtzeitwarnungen bei Reiserisiken

Sowohl im Touristik- als auch im Geschäftsreisemarkt gewinnt die Sicherheit auf Reisen durch ein gesteigertes Kundenbewusstsein, ständige Krisenereignisse und durch die Verschärfung der gesetzlichen Vorgaben zu Informations- und Fürsorgepflicht sowie die EU-Pauschalreise-Richtlinie ständig an Bedeutung. Ziel des Vorhabens „intelligent Traveller Early Situation Awareness“ (iTESA) ist der Aufbau eines automatischen Alarmsystems, das Reisende in Echtzeit vor Reiserisiken warnt (z. B. per Smartphone) und es so ermöglicht, selbst unmittelbar vor oder nach Reisebeginn umzudisponieren. Befinden sich die Reisenden bereits im Krisengebiet, soll ihnen die iTESA-Lösung Informationen zur aktuellen Lage bereitstellen und Routen vorschlagen, auf denen die Region sicher verlassen werden kann. Dank des Ansatzes „high volume, low margin“ wird insbesondere kleinen und mittleren Unternehmen (KMU) eine komplexe Technologie zugänglich gemacht. Datenbasis für iTESA ist eine Vielzahl öffentlich zugänglicher Internetquellen. Der Einbezug von Social-Media-Daten ist ebenfalls Forschungsgegenstand. Als Projektpartner der seit Februar 2015 durch das BMWi im Bereich Smart Data geförderten Kooperation sind travelbasys GmbH & Co. KG, Fraunhofer IVI, inquence GmbH, Software AG und das Unabhängige Landeszentrum für Datenschutz in Schleswig Holstein beteiligt. Weitere Informationen: http://www.smart-data-itesa.de

Hybrid-Parallelisierung des Jülicher DFT Codes FLEUR

Seit August 2014 beschäftigt sich ein von JARA-HPC für zwei Jahre gefördertes Projekt mit der “Hybrid-Pa-rallelisierung des Jülicher DFT Codes FLEUR”. FLEUR ermöglicht die Modellierung der elektronischen, magnetischen und atomaren Eigenschaften von Materialien auf der Grundlage der Quantenmechanik mittels der Dichtefunktionaltheorie (DFT). Die Herausforderung in der Anwendung von DFT-Rechnungen ist das unvorteilhafte Skalierungsverhalten für große Strukturen, d. h. von Einheitszellen mit vielen Atomen. Solche Einheitszellen kommen z. B. in ungeordneten Mehrkomponentensystemen vor oder in Situationen, bei denen strukturelle oder chemische Defekte von großer Bedeutung sind. Das JARA-HPC-Projekt zielt darauf ab, die aktuelle MPI-Version des Codes durch eine hybride und effiziente MPI/OpenMP-Parallelisierung zu ersetzen und an die Architektur moderner und zukünftiger Hoch-leistungsrechner mit einem gemeinsamen Speicher anzupassen. Die endgültige Version des Programms soll nicht nur die Verwendung von mehreren hundert Knoten, sondern auch eine hohe Leistung pro Einzelknoten ermöglichen. Weitere Informationen: http://flapw.de