HLRN-III: Neuer Supercomputer für Norddeutschland
Im Dezember 2012 unterzeichneten die Leibniz Universität Hannover und das Zuse-Institut Berlin mit der Firma Cray die Verträge über das Nachfolgesystem HLRN-III. Das neue System Cray XC30 soll ab Herbst 2013 die norddeutsche Spitzenforschung in den Hauptanwendungsgebieten Umweltforschung und Klimawissenschaften, Ingenieurwissenschaften, Physik, Chemie und Lebenswissenschaften unterstützen. Die Investitionskosten von 30 Mio. Euro werden je zur Hälfte vom Bund und von den beteiligten sieben Bundesländern Berlin, Brandenburg, Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein finanziert. Das Gesamtsystem aus zwei Cray XC30 an den Standorten Hannover und Berlin mit über 7100 Intel-Prozessoren der nächsten Generation, die über einen Aries Interconnect verbunden sind, soll ab Herbst 2014 eine Spitzenleistung von 2,6 PetaFlop/s bei 222 Terabyte Hauptspeicher bereitstellen. Es wird ergänzt durch ein SMP-System mit Infiniband-Netzwerk sowie Knoten für Pre- und Postprocessing und ein schnelles Lustre-Dateisystem mit 7,2 Petabyte.
Neuer Hochleistungsrechner für den DWD
Den Zuschlag für die neue HPC-Infrastruktur des Deutschen Wetterdienstes (DWD), die in zwei Phasen 2013/2014 realisiert wird, erhielt die Firma Cray. Installiert werden zwei identische Cray XC30 Systeme mit jeweils 17.500 Rechenkernen im Endausbau sowie je 85 Terabyte Hauptspeicher. Verbunden sind die jeweils fast 800 Rechenknoten durch den von Cray entwickelten Aries Interconnect. Ein System wird genutzt, um für den operationellen Vorhersagebetrieb alle drei Stunden eine neue Wetterprognose zu berechnen, das andere steht für Forschung und Entwicklung sowie für Klimaberechnungen zur Verfügung. Im Falle einer Störung kann der operationelle Betrieb auf das Forschungssystem umgeschaltet werden. Zur Speicherung und Weiterverarbeitung der Vorhersagedaten werden parallele Datei-systeme vom Typ Cray Sonexion für bis zu 2 Petabyte Nutzdaten installiert. Diese Infrastruktur wird ergänzt durch mehrere hochverfügbar ausgelegte Datenserversysteme der Firma NEC, die eine Datenspeicherung von bis zu 3 Petabyte erlauben und die Schnittstelle ins Langzeitarchiv bedienen. Neben einer Reduktion der Betriebskosten ermöglicht das neue System eine weitere Verbesserung des eingesetzten Modellsystems des DWD. 20 Prozent des Rechners werden vom Amt für Geoinformationswesen der Bundeswehr genutzt. Weitere Informationen: www.dwd.de
DFG-Projekt „HA“ – effizientes Exascale Computing
Zukünftige Exascale-Systeme werden durch eine extrem hohe Anzahl an Compute-Komponenten und eine vielschichtige hierarchische Organisation gekennzeichnet sein. Eine effiziente Programmierung dieser Systeme, die mehr als 1018 Rechenoperationen pro Sekunde leisten werden, ist daher eine große Herausforderung, insbesondere im Zusammenhang mit datenintensiven Anwendungen. Das Projekt „HA – Hierarchical Arrays for Efficient and Productive Data-Intensive Exascale Computing“, das seit Anfang des Jahres im Rahmen des DFG-Schwerpunktprogramms „Software for Exascale Computing“ (SPPEXA) gefördert wird, thematisiert dieses Problem. Ziel ist die Realisierung eines globalen Adressraumes für datenintensive Anwendungen auf einem verteilten System. Der Adressraum existiert in Form einer C++-Template-Bibliothek, die sowohl die Darstellung großer Datenmengen als auch komplizierter Datenstrukturen unterstützt. Das Projekt, an dem das SCC des KIT, die LMU München, die TU Dresden und das HLRS Stuttgart beteiligt sind, ist zunächst für drei Jahre angesetzt.
Numerische Simulation in der Industrie
Schnelles Prototyping von neuen Kraftfahrzeugmodellen ist für die Wettbewerbsfähigkeit in der Automobilindustrie essenziell. Der Einsatz numerischer Simulationen in der Produktentwicklung hat in den letzten Jahren enorme Fortschritte erreicht – mit dem Effekt ständig steigenden Bedarfs an Rechenleistung sowohl als Durchsatzleistung als auch als Abwicklung komplexer Simulationen. Leistungsfähige Grafik- und Many-Core-Prozessoren werden zwar in der Wissenschaft bereits erfolgreich für geeignete Algorithmen und Anwendungen genutzt, bei industrieller Software wird der Aufwand zur Anpassung der komplexen Softwarepakete jedoch noch gescheut. Das seit Mitte 2011 vom BMBF geförderte HPC-Projekt „Industrielle Anwendungsfälle auf parallelen Rechnersystemen mit heterogenen Rechenknoten (IAA)“ bringt zwei für die Automobilindustrie wichtige Softwarehersteller (Engineering Systems International und Siemens Industry Software) mit Experten für numerische Algorithmen und deren effiziente Implementierung vom HLRS und der Computerindustrie (NEC, NVIDIA und Mellanox) zusammen. Gemeinsam optimieren und testen sie an ausgewählten Algorithmen die Implementierung und Einbindung in den Produktionscode mit Datensätzen von Automobilherstellern. Weitere Informationen IAA
HPC-Methoden für molekulare Simulation
Das Projekt “Innovative HPC-Methoden und Einsatz für hochskalierbare molekulare Simulation” (IMeMo ) wurde im ersten BMBF-Call zu HPC-Software für skalierbare Parallelrechner gefördert. Ausgangspunkt war die zunehmende Bedeutung molekularer Simulationen im wissenschaft-lichen und industriellen Umfeld. Ziel war die Entwicklung der nötigen Methoden, um die durch das Höchstleistungsrechnen gebotenen Möglichkeiten besser auszuschöpfen. Wegbereiter für die Optimierung bestehender und den Einsatz neuer Programmiermodelle bildeten dabei neue Methoden zur Parallelisierung, die eine schnellere Ergebnisauswertung und die Verwendung komplexerer und akkuraterer molekularer Kraftfeldmodelle ermöglichen. Um Cluster von Multi-Core-Prozessoren effizient zu nutzen, wurden die vorhandenen Anwendungen und Algorithmen überdacht und neue Vorgehensweisen der parallelen Programmierung entwickelt. Im Projekt gelang es, das Skalierungsverhalten der Simulationscodes ms2 und ls1 mardyn signifikant zu verbessern. ls1 mardyn skaliert nun auf über 100.000 Kernen sehr effizient; durch eine hybride MPI/OpenMP-Parallelisierung können mit ms2 auch verhältnismäßig kleine molekulardynamische Simulationen effizient durchgeführt werden. Der Einsatz der Codes ermöglichte z.B. numerisch sehr aufwändige Simulationen nanoskaliger Tropfen zur Untersuchung der Größenabhängigkeit der Oberflächenspannung. Weiterhin wurde das fluide Phasenverhalten unterschiedlichster Mischungen vorhergesagt, wobei auch sicherheitsrelevante Komponenten im Vordergrund standen. Weitere Informationen: IMeMo
Energieeffizienz als Gemeinschaftsprojekt
Der saudi-arabische Supercomputer SANAM, der in der Green500-Weltrangliste der energiesparendsten Supercomputer den 2. Platz belegt, ist ein Gemeinschaftsprojekt des Forschungszentrums King Abdulaziz City for Science and Technology in Riad und des Frankfurt Institute for Advanced Studies (FIAS). Beteiligte Partner in Deutschland waren darüber hinaus die Goethe-Universität Frankfurt, das Helmholtz International Center for FAIR und das GSI Helmholtz-Zentrum für Schwerionenforschung in Darmstadt. Die Zusammenarbeit, die durch die Vermittlung der hessischen Landesregierung zustande kam, steht in einem engen Zusammenhang mit dem internationalen FAIR-Projekt, an dem Doktoranden und Wissenschaftler aus Saudi-Arabien in Darmstadt und Riad mitarbeiten. Sie werden an SANAM mit den Kollegen in Saudi-Arabien FAIR-spezifische Höchstleistungsrechnungen durchführen können. Das saudi-arabische System ist eine Weiterentwicklung des Frankfurter Höchstleistungsrechners LOEWE-CSC, der bei seiner Inbetriebnahme vor zwei Jahren der energiesparendste Großrechner Europas war. Es verfügt über ein spezielles Kühlsystem und verwendet als Beschleuniger handelsübliche Hochleistungs-Grafikkarten, wie sie auch in Arbeitsplatzcomputern eingesetzt werden. Mit einer hocheffizienten Dauerleistung von 2,3 GigaFlop/s pro Watt (2,3 Milliarden Berechnungen pro Sekunde/Watt) ist SANAM etwa 40 Prozent leistungs-fähiger, verbraucht pro MegaFlop/s aber lediglich ein Drittel der Leistung und setzt damit einen wichtigen Maßstab für die Rolle von Energieeffizienz im Höchstleistungs-rechnen. Weitere Informationen: http://tinyurl.com/cuxrv2n
Steigerung der Energieeffizienz am DKRZ
Das DKRZ optimiert seit 2011 die Energieeffizienz seiner HPC-Systeme, da die Stromkosten – allein für 2011 über 1,85 Mio. Euro – ein wesentlicher Kostenfaktor geworden sind. Das Zugpferd der Klimaforschung, das IBM-Power6-System „Blizzard“, hat eine Leistungsaufnahme von ca. 1,2 MW, wobei für die Plattensysteme und sonstige IT-Infrastruktur 300 kW sowie – bei Außentemperaturen von über 4°C – weitere 450 kW für die Kühlsysteme dazu kommen. Die gesamte Leistungsaufnahme des DKRZ liegt bei ca. 2 MW; mit einem jährlichen Stromverbrauch von mehr als 17 GWh. Als wichtigster Schritt wurde im Dezember 2011 eine bauliche Trennung zwischen Kalt- und Warmgang geschaffen, um die Luftströme in den Rechnerräumen besser zu regulieren. Außerdem wurde das Zusammenspiel von Kühlwasserkreisläufen und Kältemaschinen weiter optimiert. Insgesamt werden durch diese Maßnahmen pro Jahr ca. 750 MWh bzw. etwa 425 t CO2 eingespart und die laufenden Kosten um knapp 100.000 Euro reduziert. Damit hat sich die Förderung der Maßnahmen über das Klimaschutzkonzept der Stadt Hamburg schon nach einem Jahr amortisiert. Weitere Informationen www.dkrz.de/p/energieeffizienz