Oktober 2012

Gauß-Allianz newsletter - Issue 12

Flexibler Supercomputer für Darmstadt

Die TU Darmstadt beschafft einen neuen Hoch-leistungsrechner. Den Zuschlag für das Projekt, das in zwei Phasen Ende 2012 und Ende 2014 mit einem Gesamtvolumen von 15 Mio. Euro realisiert wird (Förderung nach Art. 91b GG), erhielt die Firma IBM. Das vielseitige System besteht aus drei Sektionen: Den größten Teil bilden über 700 Knoten für Rechnungen mit verteiltem Speicher mit je zwei Intel-Xeon-Prozessoren mit je acht Kernen und 32 GB Hauptspeicher. Für Aufgaben, die sehr viel Hauptspeicher benötigen, sind vier Knoten mit je 1024 GB und acht Intel-Prozessoren mit je acht Kernen vorhanden. Für Aufgben, die von Beschleunigern profitieren, gibt es 44 Knoten mit je zwei Intel-Prozessoren und zwei Nvidia-GPGPUs Kepler K2000. Eine Besonderheit sind weitere 20 Knoten mit je zwei Intel-Xeon-Phi-Beschleunigern. Diese erlauben den Einstieg in eine neue, vielversprechende Beschleuniger-Technologie. Dazu kommen 1,25 Petabytes Festplatten und eine FDR-Infiniband-Vernetzung. Ende 2014 wird der Rechnerkomplex mit der dann neuesten Technik weiter ausgebaut und an die Bedürfnisse der Nutzer angepasst. Die vielfältige Architektur des neuen Systems ermöglicht neben der effizienten Ausführung von Programmen auf der für sie passenden Architektur auch die produktive Entwicklung neuer Programme: Die Entwickler können die für ihre Probleme optimale Hardware und das für ihre Algorithmen passende Programmiermodell nutzen. In einer Forschungskooperation zwischen der TU Darmstadt und IBM soll die Leistung von Anwendungen weiter optimiert werden. Weitere Informationen:www.hrz.tu-darmstadt.de/hlr

Herbsttagung des ZKI-Arbeitskreises Supercomputing

Am 20./21. September waren ca. 60 Teilnehmer aus Hochschulen, Forschungseinrichtungen und Industrie zum 38. Treffen des Arbeitskreises Supercomputing der Zentren für Kommunikation und Informationsverarbeitung in Lehre und Forschung e.V. (ZKI) an der Heinrich-Heine-Universität Düsseldorf zu Gast. In den zweitägigen Frühjahrs- und Herbsttagungen dieses bereits 1994 gegründeten Arbeitskreises werden – jeweils thematisch fokussiert – aktuelle praktische Erfahrungen und Informationen ausgetauscht und strategische Fragen diskutiert. Dieses Mal wurde der Schwerpunkt auf das Thema „Betriebliche Aspekte des Hochleistungsrechnens“ gesetzt: von energieeffizienter Infrastruktur über klassische Fragen des Scheduling oder der Nutzer- und Projektverwaltung bis hin zu Konzepten der forschungsnahen Nutzerberatung. Diskutiert wurden außerdem Fragen von Kooperationen auf dem Gebiet des Hochleistungsrechnens, der Forschungsförderung und der Koordinierung von Projekten, Kompetenz-zentren und Infrastrukturen insbesondere im Bereich der Tier-2- und Tier-3-Versorgung. Weitere Informationen: http://www.zki.de/arbeitskreise/supercomputing

Strömungssimulation in komplexen Geometrien

Im Rahmen des BMBF-Projektes „Hocheffiziente und skalierbare Software für die Simulation turbulenter Strömungen in komplexen Geometrien“ (STEDG) wurde die Simulation industrierelevanter Strömungen auf Supercomputern untersucht. Numerische Simulationen sind in der Lage, hoch-qualitative Lösungen für komplexe Geometrien zu produzieren. Dabei ist der Rechenaufwand immer noch sehr hoch. Kommerzielle Löser erfüllen die bestehenden Anforderungen weder hinsichtlich der Simulationszeit noch der Lösungsqualität. Um Rechenzeiten zu erreichen, die den Anforderungen für den industriellen Einsatz entsprechen, wurden numerische Schemata entwickelt, wie zonale RANS-LES-Kopplung oder Schemata höherer Ordnung, um den Aufwand mathematisch wie softwaretechnisch zu reduzieren. Die Software wurde auf die Testfälle der Industriepartner angewandt, wobei passende Parameter zu finden waren, die nicht im Widerspruch zur Leistung und Effizienz stehen. Das Projekt hat gezeigt, dass die notwendige Qualität der Methoden nicht nur für akademische Testfälle erreicht wurde, sondern auch für reale Anwendungen, die nun in akzeptablen Turn-Around-Zeiten gelöst werden können. Partner des ab 2009 für drei Jahre geförderten Projekts waren die GRS, das HLRS, die Universität Stuttgart, die RWTH Aachen, die Robert Bosch GmbH, die TRUMPF GmbH + Co. KG sowie – assoziiert – die EADS Deutschland GmbH. Weitere Informationen: STEDG

SuperMUC im Benutzerbetrieb

Der neueste und gegenwärtig leistungsfähigste Höchstleistungsrechner des GCS „SuperMUC“ am LRZ ist seit Mitte August im normalen Benutzerbetrieb. Alle Rechenzeitkontingente wurden vom Migrationssystem übertragen. Das System zeichnet sich durch hohe Stabilität aus. In der Zuverlässigkeitsprüfung wurde eine bislang am LRZ für Systeme dieser Größenordnung unerreichte Zuverlässigkeit von 99,67 % erzielt. Schon in den ersten Betriebswochen ist eine gute Skalierbarkeit für große Anwendungen mit bis zu 32.000 der 155.656 Rechenkerne zu beobachten. Damit werden schon drei Mal so viele Rechenkerne gleichzeitig genutzt, wie der gesamte vorherige Höchstleistungsrechner am LRZ zur Verfügung stellen konnte. Unter den ersten Projekten, die auf SuperMUC rechnen, sind neben den klassischen Supercomputernutzern aus der Strömungsmechanik und Kosmologie auch komplexe Klimasimulationen und Simula-tionen aus der medizinischen Physik. Dies entspricht dem GCS-Konzept, nach dem der Supercomputer am LRZ besonders gut für Anwendungen aus vielen verschiedenen Wissenschaftsbereichen geeignet ist. Weitere Informa-tionen: http://www.lrz.de/supermuc

EnA-HPC@DKRZ

Im September fand zum dritten Mal die „Conference on Energy-Aware High Performance Computing 2012“ (EnA-HPC) in Hamburg statt. Die Konferenz wurde von der Universität Hamburg in enger Kooperation mit dem DKRZ und der Gauß-Allianz organisiert und widmete sich einer der größten Herausforderungen im Hochleistungsrechnen: dem Energieverbrauch bzw. der Energieversorgung von Rechnersystemen. Da bisherige Green IT-Lösungen sich im Hochleistungsrechnen nicht umfassend anwenden lassen, erreichen die Energiekosten über die gesamte Lebensdauer einer Installation dieselbe Größenordnung wie die Anschaffung. Ziel der Konferenz war es deshalb wieder, Wissenschaftler, Entwickler, Hersteller und Nutzer zusammen zu bringen und anhand der zwölf Vorträge Lösungsansätze im Hinblick auf eine Reduktion des Stromverbrauchs zu diskutieren. Kirk W. Cameron (Virgina Tech, USA) eröffnete die Konferenz als einer der Pioniere im Bereich Green IT mit dem Gastvortrag „The Powers That Be (in HPC)“. Mit Natalie Bates (Lawrence Berkeley National Laboratory, USA) als Vertreterin der internationalen Arbeitsgruppe Energy Efficient High Performance Computing Working Group und Enrique Quintana-Orti (Universidad Jaume I, Spanien) standen den Teilnehmern zwei weitere Experten für die Diskussion verschiedener wissenschaftlicher Ansätze und Konzepte zur Verfügung. Im nächsten Jahr findet die EnA-HPC in Dresden statt. Details dazu werden in Kürze auf der Konferenz-Webseite veröffentlicht. Unmittelbar im Vorfeld der diesjährigen Konferenz fand auch der Abschlussworkshop des vom BMBF geförderten Forschungsprojektes Energieffizientes Cluster-Computing (eeClust) statt. Im Rahmen dieses Projektes wurden Mechanismen zur Verringerung des Stromverbrauchs in Rechner-Clustern entwickelt. Dazu werden nach einer entsprechenden Programmanalyse stromverbrauchende Komponenten abgeschaltet, die vorübergehend nicht in Benutzung sind. Weitere Informationen: www.ena-hpc.org

GPU Computing: Trends und Ausblick

Grafikprozessoren (GPUs) gewinnen auch in Deutschland im Hochleistungsrechnen eine immer größere Bedeutung. Immer mehr kleine und mittelgroße Hardware-Installationen stellen den Nutzern bis zu 128 GPUs zur Verfügung. Dabei zeichnen sich mehrere Trends ab: Die Mehrzahl der Anwender nutzt GPUs nur, wenn diese zuverlässige Ergebnisse liefern können – also eine ECC-Fehlerkorrektur bieten. Dies ist mit der neuen AMD FireStream Generation (z. B. S9000) jetzt auch erstmals für GPUs von AMD möglich. Außerdem bevorzugen Anwender einfache Nutzungsmodelle, z. B. Drittanbietersoftware, die bereits GPUs unterstützt (z. B. Matlab, AMBER oder NAMD) oder direktiven-basierte Programmiermodelle wie OpenACC oder HMPP. Die demnächst erscheinende Spezifikation OpenMP 4 sowie entsprechende Compiler erweitern das populäre Multi-Threading-Modell auch auf Beschleuniger. Allerdings bleibt abzuwarten, ob es demnächst in Deutschland auch sehr große GPU-Installationen geben wird und diese Technologie den Markt des HPC in Deutschland erobern kann – wie es mit Groß-installationen wie Titan (ORNL) und BlueWaters (NCSA) in den USA bereits der Fall ist.

Mathebibliothek Blaze 1.0 veröffentlicht

Blaze ist eine an der Universität Erlangen entwickelte Open-Source-C++-Bibliothek für dicht- und dünnbesetzte Arithmetik. Mit modernen Smart Expression Templates kombiniert Blaze die Eleganz und Benutzerfreundlichkeit einer domain-spezifischen Sprache mit HPC-tauglicher Performance. Das macht Blaze zu einer der intuitivsten und schnellsten mathematischen C++-Bibliotheken. Die Blaze-Bibliothek bietet hohe Performance durch die Integration von BLAS-Bibliotheken und vektorisierten Kernels, eine intuitive und einfache API, robuste und verlässliche Kernels und einen portablen, qualitativ hochwertigen C++-Quellcode. Blaze ist zum freien Download auf http://code.google.com/p/blaze-lib verfügbar.