März 2017

Gauß-Allianz Infobrief - Ausgabe 52

Ausbau der HPC-Kapazitäten am RRZE

Nach ausführlichen Tests übergibt das Regionale Rechenzentrum Erlangen (RRZE) sein neuestes HPC-System „Meggie“ dem Nutzerbetrieb am 6. April mit einem Festkolloquium. Der von Megware gelieferte HPC-Cluster reihte sich Ende 2016 in der Top500-Liste der weltweit schnellsten Supercomputer mit gut 470 TeraFlop/s auf Platz 346 ein. Seine Leistung bezieht er aus mehr als 14.500 Kernen in 720 Rechenknoten mit je zwei Intel Xeon E5-2630v4 (Broadwell)-Prozessoren. Das genutzte Intel OmniPath-Verbindungsnetzwerk verzichtet auf eine blockierungsfreie „Fat Tree“-Topologie. Bei einem Blockierungsfaktor von 1:2 steht für jede Knotenverbindung eine Bruttokapazität von mindestens 50 Gigabit/s zur Verfügung. Der neue Cluster übertrifft das Vorgängersystem „Emmy“ um etwa 100 % bei der Spitzenleistung sowie um rund 30% bei der Kern- und Knotenzahl. Mit Meggie steht den Wissenschaftler/-innen an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) ein qualitativ und quantitativ hochwertiges Tier-3-System zur Verfügung, das quer durch alle Disziplinen genutzt wird. Schwerpunkte liegen dabei in Lebenswissenschaften, Materialwissenschaft, Chemie, Physik sowie in der Klima- und Methodenforschung. Meggie bildet an der FAU gleichzeitig eine unverzichtbare Ausgangsbasis für die weitere Nutzung der GCS- und PRACE-Systeme.

Energieeffizientes Kühlen mit Adsorptionskälte

Warmwasserkühlung ist seit Jahren Standard am LRZ für den Betrieb von HPC-Systemen. Allerdings gibt es nach wie vor Komponenten, wie z. B. Speicher, die luftgekühlt werden müssen. Das LRZ experimentiert seit einiger Zeit mit Adsorptionskältemaschinen, um auch hier die Energieeffizienz zu verbessern. Seit Ende 2015 werden am warmwassergekühlten CoolMUC2-Cluster sechs Adsorptionskältemaschinen der Firma SorTech betrieben. Aus der Abwärme des Clusters lässt sich mit Hilfe dieser Maschinen Kälte erzeugen. Konkret wandeln die Maschinen 120 kW Abwärme in 50 kW Kälte um und kühlen den 5 Petabyte großen Scratch-Plattenspeicher des SuperMUC. Die Messdaten für 2016 belegen die Effizienz der Technologie: Der Coefficient of Performance des Gesamtsystems lag 2016 im Jahresmittel bei 12. Das heißt: Für je 12 kW Kühlleistung musste 1 kW elektrische Energie aufgewendet werden. Die entsprechenden Werte lagen im gleichen Zeitraum bei 17 für freie Kühlung, d. h. durch Umgebungstemperatur ohne Nutzung von Kältemaschinen, und 4 für die kompressorgestützten Kältemaschinen. Die Adsorptionskältemaschinen waren also um den Faktor 3 effizienter als traditionelle Kältemaschinen. Mit weiterer Verbesserung der Technologie haben sie das Potenzial, zur freien Kühlung aufzuschließen.

Intelligenter Brandschutz für das DKRZ-Datenarchiv

Das DKRZ hat Anfang März eine Sauerstoffreduktionsanlage für sein Datenarchiv in Betrieb genommen. Im DKRZ-Archiv sind 55 Petabyte Ergebnisdaten von Klimasimulationen gespeichert, die innerhalb der letzten 30 Jahre berechnet worden sind. Um diesen Datenschatz noch besser zu sichern, soll die Sauerstoffreduktionsanlage helfen, die Entstehung von Bränden zu verhindern. Das Datenarchiv wurde dafür durch spezielle Trennwände luftdicht abgeschlossen, so dass dort der normale Sauerstoffgehalt von 21% durch Einleitung von Stickstoff auf 17% reduziert werden kann. Außerhalb der Arbeitszeiten wird der Sauerstoffgehalt zukünftig sogar auf 15% abgesenkt. Die Reduzierung des Sauerstoffs bewirkt, dass ein Brand gar nicht erst entstehen kann. Der Aufenthalt in Räumen mit diesem Sauerstoffgehalt ist gesundheitlich unbedenklich, so dass Wartungs- oder Kontrollarbeiten weiterhin durchgeführt werden können. Ein solches Sauerstoffniveau haben viele Menschen bereits selbst erlebt: Der Sauerstoffgehalt von 17% entspricht dem Sauerstoff-Partialdruck in 2000 Meter über Meereshöhe. Neben dieser Maßnahme sichert das DKRZ seit letztem Jahr die wichtigsten Klimadaten durch eine zweite Kopie in einem entfernt gelegenen Rechenzentrum. Weitere Informationen: https://www.dkrz.de/p/sauerstoffreduktion/

Dienstleistung und Schulung für HPC-Tier-3

Um eine transparente Nutzung der HPC-Systeme auf allen Ebenen der sogenannten HPC-Pyramide zu ermöglichen, gilt es, die bisherigen Angebotsunterschiede zwischen ihnen abzubauen. Bereits auf Tier-3-Level müssen bei den Nutzern sowohl HPC-Kompetenzen, als auch Kompetenzen in der Software-Entwicklung aufgebaut werden. Das DFG-Projekt „Dienstleistung und Schulung für erfahrene und neue HPC-Tier-3 Nutzer“ (SES-HPC) sieht einen anreizbasierten Ansatz vor, um HPC-Nutzer zu unterstützen. So werden für erfahrene Nutzer, die ihren eigenen Code schreiben, Performance Reviews angeboten, in denen Leistung, Effizienz und Skalierbarkeit zusammen mit HPC-Experten analysiert werden. Auch weniger erfahrene HPC-Nutzer, die üblicherweise proprietäre oder Open-Source-Software einsetzen, werden unterstützt. Um sicher zu stellen, dass die vorgeschlagenen Veränderungen auch in Zukunft von den Nutzern berücksichtigt werden und ein Verständnis für das Programmieren für HPC entsteht, bietet das ZIMT der Universität Siegen Kurse und Trainings an, die die Prinzipien von Performanz und Parallelität aufzeigen. Hier sollen die Wissenschaftler/-innen befähigt werden, ihre Software auf die nächsthöhere Ebene zu bringen. Diejenigen, die ihren Code einem Review unterziehen, erhalten eine höhere Priorität bzw. mehr Ressourcen. Ein weiterer Aspekt des Projekts ist der organisierte Wissenstransfer, um nachhaltig nutzbare Dienste anbieten zu können.

Forschungsprogramm HPC II der BW-Stiftung

Im aktuellen Programm „High Performance Computing II“ der Baden-Württemberg Stiftung werden fünf Projekte mit Partnern aus vier verschiedenen Forschungseinrichtungen mit einem Gesamtvolumen von ca. 4 Mio. Euro finanziert. Durch die interdisziplinären Forschungsansätze der Vorhaben kann Hochleistungsrechnen als Schlüsseltechnologie für die Bereiche Gesundheit, Energie und Umwelt sowie Mobilität weiter vorangebracht werden. Thematisiert werden Simulationen und Modellierungen wie sie bei der Entstehung und Ausbreitung von Lärm in Strömungen an Fahrzeugkarosserien notwendig sind oder für ein vertieftes Verständnis des neuromuskulären Systems. Weitere Projektthemen sind der Einfluss von Turbulenz auf die Ausbreitung von Mikroorganismen in Gewässern, die Multi-Skalen-Modellierung von Materialien und Bauelementen für die Energieumwandlung und -speicherung sowie die Entwicklung HPC-gestützter Verfahren zur Verifikation von Software für Kraftfahrzeuge. Die Vorhaben wurden aus ca. 20 Einreichungen durch unabhängige Gutachter ausgewählt und werden von HLRS und SCC intensiv betreut. Dank der Unterstützung des Ministeriums für Wissenschaft, Forschung und Kunst Baden-Württemberg kann die effiziente Nutzung der HPC-Systeme für diese Forschungen an den beiden HPC-Zentren durch spezielle Ansprechpartner unterstützt werden. Am 7. Februar wurden alle fünf Projekte bei einem Auftakttreffen vorgestellt. Weitere Informationen: https://www.bwstiftung.de/hpcii/

Weltklimadatenbank des DKRZ in neuem Kleid

Nach gründlicher Überarbeitung erscheint das Webportal der Klimadatenbank am DKRZ (Langzeitarchiv) in neuem Design. Der Zugriff auf die Datenbank WDC Climate bietet viele neue Funktionalitäten und ist deutlich schneller sowie nutzerfreundlicher als die Vorgängerversion. Highlights sind die neuen Möglichkeiten bei der Suche von Daten: Erstmals können Daten über Freitexte, über geographische Koordinaten, über einen Datenzeitraum oder über kombinierte Parameter gesucht werden. Die Freitextsuche nutzt viele weitere zusätzliche Metadaten, wie Schlagwörter aus Projektbeschreibungen oder Datenheadern. Die bereits in der alten Version bereitgestellten Filter wie Projekt, Schlagwort und Code-Typ wurden um Filter wie Institut, Personen und Datenformat ergänzt und erlauben es, die Suche deutlich zu verfeinern. Die Sortierung der Suchergebnisse erfolgt zum einen entsprechend der Hierarchie des erprobten CERA-Datenmodells nach „Typ – Projekt > Experimente > Datensatz-Gruppe > Datensatz/zusätzliche Infos“, zum anderen nach Kriterien wie DOI-Zuweisung oder Aktualität. Ein einfach zu nutzendes REST API ermöglicht es darüber hinaus, die Suchergebnisse in den Formaten JSON oder XML auszugeben und abzuspeichern. Weitere Informationen: https://www.dkrz.de/p/wdcc_neuesgui/

Trainingsworkshop zu Forschungsdaten

Das Thema Forschungsdaten und die Frage „Wie gehe ich damit um?“ ist in aller Munde – bei Wissenschaftler/-innen genauso wie in Wissenschaftsorganisationen und Politik. Doch was müssen Forschende beachten? Welche Methoden oder Werkzeuge unterstützen das Forschungsdatenmanagement? Welche Angebote gibt es? Nach dem sehr gut angenommenen, erfolgreichen ersten Trainingsworkshop im letzten Jahr wird die Research Data Alliance Deutschland (RDA-DE) in Zusammenarbeit mit der Deutschen Initiative für Netzwerkinformation (DINI) und dem nationalen Kompetenzzentrum für Big Data „ScaDS Dresden/Leipzig“ am 8. und 9. Juni am ZIH der TU Dresden den zweiten Trainingsworkshop zum Forschungsdatenmanagement veranstalten. Weitere Informationen: https://kurzlink.de/RDA-DE-Training-2017