SuperMUC: 2014 / 2015 von 3 auf 6,4 Petaflop/s
Am 10. April wurde in Garching der Vertrag über die Erwei- terung des Höchstleistungsrechners SuperMUC am LRZ unterzeichnet. Zu den vorhandenen 155.656 Prozessorkernen werden mit der Erweiterung Ende 2014/Anfang 2015 weitere 74.304 Prozessorkerne der dann neuesten verfügbaren Intel Xeon-Technologie hinzukommen. Der Hauptspeicher wird auf 538 Terabyte und der Hintergrundspeicher auf 21 Petabyte erweitert. Die Spitzenrechenleistung wird sich auf 6,4 Petaflop/s verdoppeln. Die Erweiterung des SuperMUC wird wie das bestehende System mit warmem Wasser gekühlt werden. Dies ermöglicht einerseits eine besonders energieeffiziente Kühlung ohne zusätzliche Kältemaschinen sowie andererseits die Nachnutzung der Rechnerabwärme. Durch den gleichzeitigen Einsatz besonders energieeffizienter Systemsoftware, die von IBM in enger Zusammenarbeit mit dem LRZ entwickelt wurde, konnte die Leistungsaufnahme des SuperMUC schon im ersten Betriebsjahr weiter optimiert und somit der für den Betrieb des Systems benötigte Stromverbrauch um mehr als 30 % gegenüber vergleichbaren Systemen mit herkömmlicher Kühlung reduziert werden. Die Kosten für die Erweiterung einschließlich der Wartungs- und Energiekosten betragen 34 Mio. Euro, die das Land Bayern und der Bund je zur Hälfte finanzieren. Weitere Informationen: www.lrz.de
BMBF-Call für Big Data-Projekte veröffentlicht
Im Februar hat das BMBF die Richtlinien zur Förderung von Forschungsvorhaben auf dem Gebiet „Management und Analyse großer Datenmengen (Big Data)“ sowie für die Förderung von Kompetenzzentren für den intelligenten Umgang mit großen Datenmengen veröffentlicht. Die Förderung erfolgt im Rahmen des Förderprogramms „IKT 2020 – Forschung für Innovationen“. Das BMBF adressiert damit die bedeutenden Herausforderungen an das Management und die Verarbeitung der in unserer Gesellschaft permanent anfallenden, immer schneller wachsenden Datenmengen aus modernen Alltagsgeräten, Unternehmensprozessen und wissenschaftlicher Forschung. Gefördert werden sollen zum einen Kompetenzzentren von Hochschulen und außeruniversitären Forschungseinrichtungen sowie zum anderen Verbundkonstellationen aus Wirtschaft und Wissenschaft. Die geförderten Kompetenzzentren sollen langfristige Strategien für den Umgang mit großen Datenmengen entwickeln sowie zugehörige Forschungsprojekte für die Bewältigung aktueller und zukünftiger Herausforderungen durchführen. In der Fördermaßnahme „Management und Analyse großer Datenmengen“ werden Verbundkonstellationen gefördert, die sich dem anwendungsbezogenen und breit einsetzbaren Umgang mit großen Datenmengen widmen. Projektskizzen können bis 12. Juli 2013 eingereicht werden. Weitere Informationen: www.bmbf.de/foerderungen/21339.php und www.bmbf.de/foerderungen/21340.php
Gründung der Research Data Alliance
In den letzten Jahren gab es weltweit verschiedene Anstrengungen zum Aufbau von Infrastrukturen für wissenschaftliche Daten, um die Möglichkeiten einer gemeinsamen Nutzung dieser Daten zu verbessern und damit die Forschung zu unterstützen. Um dem globalen Kontext heutiger wissenschaftlicher Forschung gerecht zu werden, ist der Aufbau einer interoperablen und integrierten Datendomäne nur durch eine globale Kooperation möglich. Im Rahmen einer internationalen Konferenz, die vom 18. bis 20. März in Göteborg stattfand, wurde deshalb die „Research Data Alliance“ (RDA) gegründet. Ziel dieser Allianz ist es, die datengetriebene Forschung und Innovation im internationalen Rahmen voranzubringen. Im Fokus stehen dabei Themen wie die Förderung des Austauschs und der Nachnutzung von Forschungsdaten sowie die Harmonisierung von Standards sowohl innerhalb der Fachdisziplinen als auch übergreifend. Das soll durch die Entwicklung und Implementierung von entsprechenden Infrastrukturen, Methoden, Regeln und Standards erreicht werden. Als Hauptinstrument der Allianz werden Arbeitsgruppen zu spezifischen Themen eingerichtet. Angestoßen wurde die Initiative von der National Science Foundation (NSF), der Europäischen Kommission (Projekt iCordi) und dem Australian National Data Service (ANDS). Weitere Informationen: www.rd-alliance.org
Exascale-Computing für Partielle Differentialgleichungen
Ziel des DFG-Projekts „EXA-DUNE: Flexible PDELöser, Numerische Methoden und Anwendungen“ ist die Entwicklung, Implementierung und Optimierung numerischer Algorithmen und Softwarekonzepte zur effizienten Lösung partieller Differentialgleichungen (PDEs) auf Exascale-Rechnern mit ihren massiv parallelen und potentiell heterogenen Hardwarearchitekturen. Da die Lebenserwartung von Software zur Lösung von PDEs üblicherweise die der HPC-Hardware weit übersteigt, müssen Softwarekomponenten flexibel sein und zugleich die Hardware optimal ausnutzen. Die Bündelung der langjährigen Erfahrung auf diesem Gebiet aus den Open-Source-Projekten DUNE und FEAST bietet dafür eine ideale Grundlage. Die neu entwickelten Methoden werden zur Lösung von Fragestellungen aus dem Bereich der Simulation von Transportprozessen in porösen Medien wie Brennstoffzellen, CO2-Sequestrierung und Wassertransport in großen Einzugsgebieten verwendet. Das interdisziplinäre Projekt, an dem die Universitäten Münster und Heidelberg, die TU Dortmund sowie das Fraunhofer ITWM in Kaiserslautern beteiligt sind, wird im Rahmen des Schwerpunktprogrammes SPPEXA zunächst für drei Jahre gefördert. Weitere Informationen: http://conan.iwr.uni-heidelberg.de/research/sppexa/
SuperMUC simuliert 4,125 Billionen Partikel
Motiviert durch den Bedarf der Ingenieur- und Naturwissenschaften nach immer längeren und größeren Simula-tionsläufen, haben Wissenschaftler der TU München (TUM) gemeinsam mit dem Leibniz-Rechenzentrum in München (LRZ) sowie den Thermodynamik-Lehrstühlen der TU Kaiserslautern und der Uni Paderborn den Molekulardynamik-Code ls1 mardyn für den Intel Sandy Bridge EP Prozessor – das Herzstück des SuperMUC am LRZ – optimiert. Um die Performance hinsichtlich starker Skalierbarkeit auf SuperMUC zu evaluieren, wurden Läufe mit 4,8 Milliarden Partikeln ausgeführt. Dabei wurde eine sehr gute Skalierbarkeit auf 146.000 Kernen bei einer parallelen Effizienz von 42 % erreicht. Für die derzeit weltweit größte Molekulardynamik-Simulation mit 4,125 Billionen Partikeln dauerte die Berechnung eines Zeitschritts ca. 40 Sekunden. Für dieses Szenario wurde eine absolute Performance von 591,2 Teraflop/s erreicht, was einem Speedup von 133.200 bezogen auf einen einzelnen Kern entspricht. Die single-precision Sustained Performance lag damit bei 9,4 % der Peak Performance.
LSDMA-Frühjahrstreffen in Hamburg
Vom 11. bis 13. März fand am DESY das Frühjahrstreffen 2013 der Helmholtz-Portfolioerweiterung “Large Scale Data Management and Analysis (LSDMA)“ statt, an der u. a. die Gauß-Allianz-Mitglieder JSC, ZIH, DKRZ, SCC, DESY und G-CSC beteiligt sind. Das Treffen setzte sich aus drei Veranstaltungen zusammen. Im Rahmen des Identitätsmanagement-Workshops referierten acht internationale Sprecher zu Themen rund um föderiertes Identitätsmanagement, DFN-AAI, Moonshot, Switch-IDM und ESFRI-Projekte, die im Anschluss intensiv diskutiert wurden. Auf dem LSDMA-Community-Forum stellten zehn Sprecher wissenschaftliche Projekte und ihre Anforderungen an Management und Analyse von Daten unterschiedlicher Skalierungen vor. Die Spanne reichte von mittelalterlichen Handschriften, moderner Nanoskopie und Mikroskopie über die Gehirnforschung im Human Brain Project und experimentelle Teilchenphysik bis hin zu Klima- und Erdbebenforschung. Den Abschluss bildete ein internes Projekttreffen, auf dem der 24. September 2013 als Termin für das zweite internationale LSDMA-Symposium in Karlsruhe bekanntgegeben wurde, dessen Schwerpunkt auf der Analyse von Big Data liegen wird.
HPC-Statuskonferenz der Gauß-Allianz
Die Gauß-Allianz plant am 5. und 6. September an der TU Dresden ihre dritte HPC-Status-Konferenz. Ähnlich wie die vorangegangenen Veranstaltungen in Schwetzingen im Juni 2010 und in Darmstadt im Dezember 2011 soll Wissenschaftlern und Anwendern eine Plattform zum interdisziplinären Austausch über aktuelle Forschungs-aktivitäten und Fragestellungen zum Thema anwendungsorientierte HPC-Software für skalierbare Paral-lelrechner geboten werden. Im Mittelpunkt werden insbesondere die aktuell durch das BMBF in diesem Bereich geförderten Forschungsprojekte stehen, wobei der Fokus auf die industriellen Anwendungen gerichtet sein wird. Zwei Keynote-Talks aus Industrie- und Politikumfeld werden das Programm abrunden.
Gedenken an Professor Dr. Volkard Linke
* 28.06.1938 / † 29.03.2013
Die deutsche HPC-Gemeinschaft hat einen hoch geschätzten, weitsichtigen und stragischen Mitstreiter und Förderer verloren. Neben seinen koordinierenden Verdiensten für das Hochleistungsrechnen auf nationaler Ebene war für Volkard Linke insbesondere der Aufbau des Supercomputerverbundes der Norddeutschen Bundesländer (HLRN) ein wichtiges Anliegen. Dafür hat er unermüdlich und noch weit über den Ruhestand hinaus gekämpft, sich ehrenamtlich als Vorsitzender des Wissenschaftlichen Ausschusses des HLRN engagiert und mit seiner kenntnisreichen und feinfühligen Art die Entwicklung des Verbundes begleitet. Die Mitarbeiterinnen und Mitarbeiter des HLRN sind sehr dankbar für sein vielfältiges und nachhaltiges Wirken und trauern mit seinen Angehörigen.