Dezember 2012 / Januar 2013

Gauß-Allianz newsletter - Issue 14

JUQUEEN – Europas Königin der Supercomputer

Ende Oktober wurde am Jülich Supercomputing Centre (JSC) das neue Supercomputer-System JUQUEEN in Betrieb genommen. Der Rechner ist ein BlueGene/Q-System von IBM: Mit fast 400.000 Rechenkernen in 24 Racks erreicht er derzeit eine maximale Rechenleistung von mehr als 5 Petaflops und ist damit der leistungsfähigste Rechner in Europa. Anfang 2013 ist eine Aufstockung auf 28 Racks geplant. Systeme dieses Typs gehören mit rund zwei Gigaflops pro Watt zu den energie-effizientesten Superrechnern der Welt. JUQUEEN wurde zu gleichen Teilen aus Bundes- und Landesmitteln finanziert und wird vom Forschungszentrum Jülich betrieben. Der neue Jülicher Spitzenrechner steht Wissenschaftlern aus Deutschland und Europa offen. Zwei Drittel der Rechenzeit werden über das Gauss Centre for Supercomputing (GCS) und über die europäische Forschungsinfrastruktur PRACE vergeben. Ein weiteres Drittel steht Nutzern des Forschungszentrums Jülich und der Jülich-Aachen Research Alliance zur Verfügung. Weitere Informationen: http://www.fz-juelich.de/jsc/juqueen

Supercomputer für Paderborn

Nach dem Umzug in das neue Campus-Gebäude wird nun auch ein neuer Hochleistungsrechner im Paderborn Center for Parallel Computing (PC2) der Universität Paderborn installiert. Das Gesamtvolumen der Investition beträgt 4 Mio. Euro (nach Art. 91b gefördert). An der Finanzierung beteiligen sich neben der Universität Paderborn auch die Partnerhochschulen Universität Bielefeld, Hochschule Hamm-Lippstadt, Hochschule Ostwestfalen-Lippe und Fachhochschule Bielefeld. Anwendungsschwerpunkte der Nutzung sind die Natur- und Ingenieurwissenschaften. Kernkomponente ist ein Rechnersystem der Firma ClusterVision bestehend aus 614 Rechenknoten (10.000 Intel-Xeon Prozessorkerne, 45 Terabyte Hauptspeicher, 0,5 Petabyte paralleles Filesystem), wobei einige Knoten mit Beschleunigerkarten (NVIDIA K20 und Intel Xeon Phi) ausgestattet sind. Angebunden wird das System an ein neu entstehendes Campus-weites Speichersystem (Storage4Research). Weitere Informationen: http://www.upb.de/pc2

IC2 des KIT auf Platz 236 der TOP500-Liste

Anfang Oktober diesen Jahres wurde am SCC des KIT der Instituts-Cluster II (IC2) zur Nutzung freigegeben. Dabei handelt es sich um ein Parallelrechnersystem mit mehr als 6.500 Prozessorkernen, 28 Terabyte Hauptspeicher und einer theoretischen Spitzenleistung von ca. 135,5 Teraflops pro Sekunde. Für das Rechnersystem wurde durch mehrere KIT-Institute gemeinsam ein erfolgreicher Förderantrag gestellt. Es wird durch die DFG mitfinanziert. Der IC2 steht auf der im November 2012 erschienenen Liste der TOP500-Supercomputer (www.top500.org) auf Platz 236.

25 Jahre Spitzenrechner für Spitzenforschung

Das Deutsche Klimarechenzentrum wurde am 11. November 1987 gegründet und nahm zum 1. Januar 1988 seinen Betrieb als fachspezifisches Hochleistungsrechenzentrum auf. In den vergangenen 25 Jahren haben sich die Hochleistungsrechner, Datenspeichersysteme sowie die Dienste und Serviceleistungen des DKRZ als unverzichtbar für die deutsche Klimaforschergemeinschaft herausgestellt und dazu beigetragen, weltweit anerkannte Spitzenleistungen im Bereich Klima- und Erdsystemforschung zu erzielen. Am 25. Februar 2013 feiert das DKRZ sein 25-jähriges Jubiläum mit einem offiziellem Festsymposium, bei dem ein Blick zurück auf die Erfolgsgeschichte des DKRZ, aber auch in die Zukunft des Klimarechnens geworfen wird. Am darauf folgenden Tag, dem 26. Februar 2013, stellen einige der wissenschaftlichen Hauptnutzer des DKRZ während eines Workshops ihre aktuellen Forschungen vor. Pünktlich zu den Feierlichkeiten wird im Februar eine Festschrift erscheinen.

Höchstgeschwindigkeits-Datennetz „FAIR Tera Net“

Die erste Ausbaustufe des „FAIR Tera Net“ zur Verbindung der hessischen Universitäten mit dem künftigen internationalen Beschleunigerzentrum FAIR (Facility for Antiproton and Ion Research), wurde in Betrieb genommen. Das Datennetz verbindet – über eine Strecke von ca. 100 Kilometern – die Computer des GSI Helmholtz-zentrums für Schwerionenforschung in Darmstadt mit der Goethe-Universität und dem Höchstleistungsrechner LOEWE-CSC in Frankfurt-Höchst. Eine Zwischenstation bildet außerdem der weltweit größte Internetknoten DE-CIX in Frankfurt. Die Übertragungsgeschwindigkeit von 120 Gigabit/s in der Pilotphase soll später auf mindestens 1 Terabit/s erhöht werden. Im Jahr 2014 soll für FAIR in Darmstadt das GSI-Rechenzentrum „Green Cube“ in Betrieb gehen und weitere HPC-Kapazität für die Forschung bereitstellen. „FAIR Tera Net“ wurde vom GSI und vom Helmholtz International Center for FAIR gemeinsam realisiert und ist Teil der hessischen Landes-Offensive zur Entwicklung Wissenschaftlich-ökonomischer Exzellenz (LOEWE). Weitere Informationen: http://hicforfair.de/?id=pressrelease

Demonstration von ELPA auf SC‘12

Im ELPA-Projekt – vom BMBF im 1. HPC-Call gefördert – wurden hochskalierende direkte Eigenlöser für symmetrische Matrizen entwickelt. Die frei verfügbare Software wird inzwischen weltweit für verschiedene Simulationssoftwarepakete auf Supercomputern eingesetzt. Je nach wissenschaftlicher Problemstellung kommen Matrizen unterschiedlicher Größe und Art zum Einsatz. Bislang gab es nur Leistungsmessungen für die Lösung bestimmter Matrizen und unter Einsatz von Rechensystemen, die inzwischen nicht mehr zu den neuesten Architekturen zählen. Deshalb wurde für einen großen Matrizenbereich ein multidimensionaler Parameterraum zum ersten Mal systematisch – auf einem Intel SandyBridge-Prozessor basierten Rechencluster – vermessen. Die ELPA-Löser wurden mit entsprechenden Routinen aus der Intel Math Kernel Library (MKL) verglichen. Variiert wurden die Matrizengrößen von 2.500 bis 100.000, die Zahl der zu berechnenden Eigenvektoren von 10% bis 100%, sowohl für reelle, als auch für komplexe Fälle. Gemessen wurden Leistungen auf einem Rechenknoten (16 Prozessorkerne) bis hoch zu 128 Knoten (2048 Prozessorkerne). In allen Fällen war ELPA den entsprechenden MKL-Routinen deutlich überlegen. Die Präsentation der umfangreichen Studie auf der Supercomputing-Konferenz 2012 in Salt Lake City stieß auf reges internationales Interesse. Zum gleichen Thema gab es auch eine Posterpräsentation der Universität Tennessee zusammen mit der ETH Zürich, die den neuen Eigenwertlöser aus der MAGMA-Bibliothek für hybride Systeme mit GPUs vorstellte; auch im Vergleich zu ELPA. Da der Einsatz von MAGMA jedoch auf einen einzelnen Knoten beschränkt ist, bleibt ELPA weiterhin der schnellste direkte Löser seiner Art. Weitere Informationen http://elpa.rzg.mpg.de

Fehler-tolerante Umgebung für peta-scale MPI-Löser

Durch die stetig wachsende Größe und Komplexität aktueller HPC-Systeme werden die Auswirkungen von Fehlern und Ausfällen von Systemkomponenten immer gravierender. Aktuelle Extrapolationen zeigen klar, dass die Herausforderungen der Integration großer HPC-Systeme im Multi-Petascale- und Exascale-Bereich zu einem Zustand führen werden, bei dem die Dauer der „Stabilisierung“ einen signifikanten Anteil der Lebensdauer dieser Systeme beansprucht. Daher ist die Integration von Mechanismen zur Fehlertoleranz über entsprechend erweiterte System- und Anwendungssoftware in HPC-Systemen unabdingbar, um ihre Widerstandsfähigkeit (Resilienz) gegen eine Vielzahl von möglichen Teilversagensmechanismen nachhaltig zu erhöhen. Das seit Mitte 2011 vom BMBF geförderte HPC-Projekt „Eine fehlertolerante Umgebung für peta-scale MPI Löser (FEToL)“ greift diese Herausforderung durch Entwicklung eines hierarchischen, middleware-basierten Ansatzes auf, der bei minimaler Adaption der Anwendungen eine fehlertolerante Ausführung großer paralleler Jobs ermöglicht. Neben der TU Braunschweig als Koordinator sind an dem Projekt die Universitäten Duisburg-Essen, Stuttgart und Erlangen-Nürnberg sowie die Firma NEC beteiligt. Weitere Informationen: FEToL

Optimierung multiphysikalischer Industrieprozesse

Im Rahmen des vom BMBF seit 2011 geförderten Projektes „Hocheffiziente integrierte Simulation von Elektromembranverfahren zur Entsalzung von Meerwasser (HISEEM)“ arbeiten die German Research School for Simulation Science (GRS), die Aachener Verfahrenstechnik (RWTH Aachen) und Siemens Corporate Technology gemeinsam an der numerischen Simulation von Elektro-membranverfahren. Hierbei steht insbesondere die technische Anwendung im Bereich der Meerwasserentsalzung im Vordergrund, die hinsichtlich ihrer gesamtheitlichen Energieeffizienz verstanden und optimiert werden soll. Aus mathematisch-physikalischer Sicht lassen sich diese Prozesse durch partielle Differentialgleichungen beschreiben, deren Lösung aufgrund der hohen Komplexität jedoch ohne numerische Simulationen nicht möglich ist. Im Rahmen der Forschungskooperation werden deshalb neue numerische und software-technische Ansätze für die industrielle Nutzbarmachung von gekoppelten, hoch-skalierenden numerischen Simulationstechniken ent-wickelt und untersucht. Erste Ergebnisse zeigen bereits die hohe Relevanz von Simulationsergebnissen, indem die aus Simulationen gewonnen Erkenntnisse unmittelbar in den industriellen Auslegungsprozess bei Siemens Corporate Technology einfließen. Weitere Informationen: HISEEM